هوش مصنوعی جدید انویدیا توانست مسئله توتفرنگی را حل کند
انویدیا به تازگی از مدل زبانی بزرگ و متنباز خود با نام نموترون (Llama-3.1-Nemotron-70B-Instruct) رونمایی کرده است؛ آنچه که در خصوص این مدل زبانی شگفتآور است، برتر بودن آن از مدلهای فعلی مانند GPT-4o و Claude 3.5 با توجه به آموزش دیدن با ۷۰ میلیارد پارامتر متنوع است.
این مدل بر اساس مدل پایه Llama-3.1-70B-Instruct شرکت متا توسعه پیدا کرده است و یکی از ویژگیهای کلیدی آن، استفاده از تکنیکی به نام مدل پاداش رگرسیونی «SteerLM» است؛ این تکنیک کمک میکند تا جدیدترین مدل هوش مصنوعی انویدیا با استفاده از مجموعهدادههای باکیفیت و الگوریتمهای پیچیده، پاسخهای دقیقتر و مرتبطتری تولید کند
انویدیا ادعا میکند که در آینده جدیدترین مدل هوش مصنوعی این شرکت میتواند در حوزههای مختلفی مانند پردازش زبان طبیعی، تولید محتوا و پاسخگویی به پرسشهای متنوع کاربران، مورد استفاده قرار گیرد.
با این حال عملکرد هوش مصنوعی Llama-3.1-Nemotron-70B-Instruc انویدیا در موقعیتهای خاص مانند وظایف پیچیده کدنویسی یا مسائل مبتنی بر استنتاج سنجیده نشده است، اما معیارهای اولیه نشان میدهند که جدیدترین مدل زبانی بزرگ این شرکت بسیار پیشرفته است.
جالب است بدانید که این مدل خاص توانسته است مسئله «توتفرنگی» را حل کند که مدلهای هوش مصنوعی سنتی قادر به حل آن نبودند.
مسئله توتفرنگی شامل شمارش صحیح تعداد حرف R در کلمه توتفرنگی (strawberry) میشود؛ هوش مصنوعیهای مشابه تعداد R را بهخاطر ضعف شناختی، ۲ عدد تشخیص میدهند.
مدل زبانی بزرگ Llama-3.1-Nemotron-70B-Instruct توسعهیافته توسط انویدیا در بسیاری از معیارهای ارزیابی، بهویژه Arena Hard که ابزاری برای ارزیابی خودکار مدلهای زبانی بزرگ محسوب میشود، رتبه اول را کسب کرده است.
همچنین این مدل توانسته از مدلهای زبانی بزرگ معروف صنعت مانند GPT-4 شرکت OpenAI پیشی بگیرد که باتوجهبه تأثیر قابلتوجه تنظیم دقیق انویدیا بر مدل پایه جدیدترین هوش مصنوعی خود، یک دستاورد مهم محسوب میشود.
یکی از ویژگیهای برجسته این مدل، متنباز بودن آن است. انویدیا باعرضهی متنباز این مدل، به توسعهدهندگان امکان میدهد تا از آن برای ساخت برنامههای جدید و پیشرفته استفاده کنند. این مدل در سایت Hugging Face و وبسایت رسمی انویدیا قابلدسترسی است که نشاندهنده تلاش انویدیا برای مشارکت و همکاری با جامعهی توسعهدهندگان است.