برترین متخصصین

از سراسر دنیا

مجموعه وبینارهای مدل‌های بزرگ زبانی (LLM)

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 مایکروسافت مدل زبانی کوچک Phi-2 را منتشر کرد

مایکروسافت مدل زبانی کوچک Phi-2 را منتشر کرد

زمان مطالعه: 2 دقیقه

به گزارش هوشیو، هفته گذشته، شرکت بزرگ مایکروسافت که به‌عنوان یکی از تاثیرگذارترین بازیکنان در عرصۀ هوش مصنوعی شناخته می‌شود، آخرین نسخه از مجموعۀ مدل‌های زبان کوچک خود (SLM) را با نام Phi-2 در کاتالوگ مدل‌های خود در Azure AI Studio، در دسترس عموم قرار داد. این مدل زبان کوچک هم‌اکنون فقط برای اهداف تحقیقاتی قابل استفاده است.

SLM یا مدل زبان کوچک نوعی از مدل‌های زبانی است که فقط روی یک دامنه خاص توسعه و آموزش داده می‌شود و این موضوع آن‌ را برای استفادۀ آکادمیک و رسیدن به اهداف علمی و تحقیقاتی، تبدیل به گزینه‌ای اید‌آل می‌کند. این مدل‌ همچنین به دلیل اندازه کوچک‌تر، نسب‌ به مدل‌های زبان بزرگ مقرون‌به‌صرفه‌تر است و برای انجام وظایفی طراحی و تولید می‌شود که نیاز به توان محاسباتی عظیمی ندارند.

یکی از نقاط قوت مهم و قابل توجه مدل زبانی جدید مایکروسافت، Phi-2، تمرکز بر کیفیت محتوا بر اساس کتب درسی برای آموزش است. شرکت مایکروسافت دراین‌باره چنین توضیح داد که:«Phi-2 با اندازه کوچک خود، عرصه‎‌ای ایده‌آل برای تحقیقات محققان از جمله کاوش در تفسیرپذیری مکانیکی، بهبود ایمنی و آزمایش‌های دقیق روی انواع پروژه‌ها است.» این شرکت در ادامه اظهار داشت که:«مخلوط داده‌های آموزشی ما شامل مجموعه‌های داده مصنوعی است که به‌طور خاص برای آموزش استدلال عقلی و دانش عمومی از جمله علم، فعالیت‌های روزانه و تئوری ذهنی و مواردی از این دست ایجاد شده‌است. ما مجموعه آموزشی خود را با داده‌های وب که به دقت انتخاب شده‌اند، تقویت می‌کنیم و درواقع این داده‌ها براساس ارزش آموزشی و کیفیت محتوا فیلتر می‌شوند.»

با وجود این که Phi-2 یک مدل زبان کوچک است، اما 2.7 میلیارد پارامتر دارد و در مقایسه با مدل قبلی این شرکت، Phi-1.5، که تنها دارای 1.3 میلیارد پارامتر بود، پیشرفتی بزرگ محسوب می‌شود. علاوه‌براین و با نظر بر رویکرد ویژه شرکت مایکروسافت در مقیاس‌بندی، شاید بتوان ادعای این شرکت را مبنی بر عملکرد بهتر Phi-2 نسب به مدل‌هایی که 25 برابر بزرگ‌تر هستند، پذیرفت. تست‌های بنچمارک شرکت مایکروسافت نشان می‌دهند که Phi-2 با 2.7 میلیارد پارامتر خود از دو رقیب اصلی‌اش، SLM Mistrial  با 7 میلیارد پارامتر و Llama-2 7-70 میلیارد پارامتر، در استدلال‌های مشترک، درک زبان و حل سوالات ریاضی بهتر عمل می‌کند. این شرکت همچنین ادعا می‌کند که مدل جدیدش با وجود اندازه کوچک‌تر، می‌تواند در رقابت با Google Gemini Nano 2 که به‌تازگی معرفی شده‌است، برابری کند. این مدل نیز مثل دیگر مدل‌های زبان کوچک روی داده‌های مشخص آموزش داده شده‌است و با بازخورد انسانی تقویت نمی‌شود، به همین دلیل در مقایسه با Llama-2 شاهد کاهش سوگیری بوده‌است.

در هفتۀ گذشته مدل جدید زبان کوچک مایکروسافت به نام Phi-2، منتشر شد. این مدل زبان  کوچک دارای 2.7 میلیارد پارامتر است و پیشرفت قابل توجهی نسبت به مدل قبلی همین شرکت با 1.3 میلیارد پارامتر محسوب می‌شود. مایکروسافت ادعا می‌کند که Phi-2 نسبت به رقیبانش عملکرد بهتری ارائه خواهدداد و حتی در مقایسه با مدل جدید گوگل نیز می‌تواند عملکرد بهتر یا برابری را از خود نشان دهد. این مدل هم‌اکنون در کاتالوگ مدل‌های مایکروسافت در Azure AI Studio قابل دسترس است.

شما چه فکر می‎‌کنید؟ Phi-2 قوی‌تر عمل خواهدکرد یا Google Gemini Nano 2؟

بنر اخبار هوش مصنوعی

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]