برترین متخصصین

از سراسر دنیا

مجموعه وبینارهای مدل‌های بزرگ زبانی (LLM)

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
گزارش
مصاحبه
 بروزرسانی درنای ۸ میلیارد پارامتری

بروزرسانی درنای ۸ میلیارد پارامتری

زمان مطالعه: 2 دقیقه

یکی از گروه‌های مدل زبانی فارسی پرآوازه که توسط مرکز تحقیقات هوش مصنوعی پارت توسعه یافته است، درنا نام دارد. یکی از پرکاربردترین  LLMهای این گروه، می‌توان به مدل بزرگ زبانی ۸ میلیارد پارامتری آن‌ها اشاره کرد که به‌صورت متن‌باز عرضه شده است؛ این مدل به دلیل عملکرد دقیقی که در زبان فارسی دارد، با استقبال از سوی توسعه‌دهندگان مواجه شده است.

نسخه دوم درنای ۸ میلیارد

حال این مدل زبانی به نسخه دوم ارتقا یافته است و چندین قابلیت جدید به آن افزوده شده است و عملکرد کلی آن به‌صورت چشمگیری بهبود یافته است.

جالب است بدانید که در ماه‌های اخیر مدل‌های بزرگ زبانی فارسی توانسته‌اند جایگاه خود را در زیست‌بوم هوش مصنوعی کشور تثبیت کنند و در بسیاری از ابزارهای هوشمند مورد استفاده قرار بگیرند. کاربران فارسی‌زبان نیز ارتباط مؤثری با این ابزارها برقرار کرده‌اند و اغلب سرویس‌های باکیفیت هوش مصنوعی، در جلب نظر مخاطبان موفق ظاهر شده‌اند.

این موفقیت مدیون زیرساخت‌هایی مانند  LLMها است که به‌صورت رایگان و متن‌باز در دسترس توسعه‌دهندگان داخلی قرار گرفته و فرصت رقابت پایاپای با سرویس‌های مطرح خارجی را برای آنها فراهم کرده است.

مدل بزرگ زبانی درنا چه بروزرسانی‌هایی دریافت کرده است؟

همان‌طور که گفته شد مدل بزرگ زبانی ۸ میلیارد پارامتری از گروه درنا، در به‌روزرسانی بزرگ خود به نسخه ۲، پیشرفت‌های چشمگیری را تجربه کرده است از مهم‌ترین ارتقاهای نسخه جدید، می‌توان به افزایش طول داده‌های ورودی (Context length)  اشاره کرد که با یک جهش ۱۶ برابری، از ۸ هزار به ۱۲۸ هزار توکن افزایش پیدا کرده است. این رشد چشمگیر تعداد توکن‌ها به مدل کمک می‌کند تا ورودی‌های طولانی‌تری را دریافت کند و پاسخ‌های دقیق‌تری در جواب پرسش کاربران ارائه دهد.

علاوه بر آنچه گفته شد، توسعه‌دهندگان می‌توانند با استفاده از این مدل ارتقا یافته، سرویس‌های شخص ثالث و APIهای مختلف را به محصول خود متصل کنند و طیف وسیعی از خدمات گوناگون را به صورت واحد در دسترس کاربران خود قرار دهند، به عنوان مثال، یک چت‌بات هوشمند می‌تواند با استفاده از API مراکز فروش بلیت هواپیما، مناسب‌ترین گزینه را بر اساس قیمت و تاریخ سفر کاربر به او پیشنهاد کند و در صورت تأیید، بلیت موردنظر را در لحظه رزرو کند.

مدل بزرگ زبانی ۸ میلیارد پارامتری در سنجه Persian LLM Leaderboard پارت نیز مورد ارزیابی قرار گرفته و نتایج عملکرد آن هم‌اکنون در صفحه هاگینگ‌فیس قابل مشاهده و بررسی است.

توجه ویژه پارت به توسعه‌دهندگان شخصی و کسب‌وکارهای نوپا

پارت در کنار عرضه مدل‌های بزرگ‌مقیاس برای استفاده‌های حرفه‌ای و سازمانی، توجه ویژه‌ای هم به توسعه‌دهندگان شخصی و کسب‌وکارهای نوپا دارد. این دسته از توسعه‌دهندگان به سخت‌افزارهای پیشرفته و گران‌قیمت دسترسی ندارند و نیازمند ابزاری هستند که با استفاده از سیستم‌های شخصی هم قابل‌استفاده باشد.

پارت در همین راستا، عضو جدید گروه مدل زبانی «توکا» را تحت عنوان مدل (SBert) به‌صورت متن‌باز عرضه کرده است تا امکان توسعه چت‌بات‌های هوشمند را برای طیف وسیعی از توسعه‌دهندگان فراهم کند.

توکا در سیستم‌های مختلف قابل‌پیاده‌سازی است و این قابلیت را به خاطر حجم پایینی که دارد، به دست آورده است. تمامی سرویس‌های چت‌بات، فارغ از شکل فعالیت خود و یا استفاده از مدل‌های داخلی و خارجی، نیازمند به‌کارگیری این نوع از مدل‌های زبانی هستند؛ حال به لطف توکا، این مدل می‌تواند  به‌صورت لوکال مورد استفاده قرار بگیرد و با منابع و سخت‌افزار محدود اجرایی شود.

بر اساس آنچه گفته شد، توکا گزینه‌ای مناسب برای استفاده در زمینه  RAGها و چت‌بات‌های پاسخگو به پرسش‌های متداول (FAQ)  است.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]