40 گام به سوی آینده‌ای هوشمند - مجموعه وبینارهای رایگان در حوزه هوش مصنوعی
Filter by دسته‌ها
chatGTP
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
تیتر یک
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 مایکروسافت مدل زبانی کوچک Phi-2 را منتشر کرد

مایکروسافت مدل زبانی کوچک Phi-2 را منتشر کرد

به گزارش هوشیو، هفته گذشته، شرکت بزرگ مایکروسافت که به‌عنوان یکی از تاثیرگذارترین بازیکنان در عرصۀ هوش مصنوعی شناخته می‌شود، آخرین نسخه از مجموعۀ مدل‌های زبان کوچک خود (SLM) را با نام Phi-2 در کاتالوگ مدل‌های خود در Azure AI Studio، در دسترس عموم قرار داد. این مدل زبان کوچک هم‌اکنون فقط برای اهداف تحقیقاتی قابل استفاده است.

SLM یا مدل زبان کوچک نوعی از مدل‌های زبانی است که فقط روی یک دامنه خاص توسعه و آموزش داده می‌شود و این موضوع آن‌ را برای استفادۀ آکادمیک و رسیدن به اهداف علمی و تحقیقاتی، تبدیل به گزینه‌ای اید‌آل می‌کند. این مدل‌ همچنین به دلیل اندازه کوچک‌تر، نسب‌ به مدل‌های زبان بزرگ مقرون‌به‌صرفه‌تر است و برای انجام وظایفی طراحی و تولید می‌شود که نیاز به توان محاسباتی عظیمی ندارند.

یکی از نقاط قوت مهم و قابل توجه مدل زبانی جدید مایکروسافت، Phi-2، تمرکز بر کیفیت محتوا بر اساس کتب درسی برای آموزش است. شرکت مایکروسافت دراین‌باره چنین توضیح داد که:«Phi-2 با اندازه کوچک خود، عرصه‎‌ای ایده‌آل برای تحقیقات محققان از جمله کاوش در تفسیرپذیری مکانیکی، بهبود ایمنی و آزمایش‌های دقیق روی انواع پروژه‌ها است.» این شرکت در ادامه اظهار داشت که:«مخلوط داده‌های آموزشی ما شامل مجموعه‌های داده مصنوعی است که به‌طور خاص برای آموزش استدلال عقلی و دانش عمومی از جمله علم، فعالیت‌های روزانه و تئوری ذهنی و مواردی از این دست ایجاد شده‌است. ما مجموعه آموزشی خود را با داده‌های وب که به دقت انتخاب شده‌اند، تقویت می‌کنیم و درواقع این داده‌ها براساس ارزش آموزشی و کیفیت محتوا فیلتر می‌شوند.»

با وجود این که Phi-2 یک مدل زبان کوچک است، اما ۲.۷ میلیارد پارامتر دارد و در مقایسه با مدل قبلی این شرکت، Phi-1.5، که تنها دارای ۱.۳ میلیارد پارامتر بود، پیشرفتی بزرگ محسوب می‌شود. علاوه‌براین و با نظر بر رویکرد ویژه شرکت مایکروسافت در مقیاس‌بندی، شاید بتوان ادعای این شرکت را مبنی بر عملکرد بهتر Phi-2 نسب به مدل‌هایی که ۲۵ برابر بزرگ‌تر هستند، پذیرفت. تست‌های بنچمارک شرکت مایکروسافت نشان می‌دهند که Phi-2 با ۲.۷ میلیارد پارامتر خود از دو رقیب اصلی‌اش، SLM Mistrial  با ۷ میلیارد پارامتر و Llama-2 7-70 میلیارد پارامتر، در استدلال‌های مشترک، درک زبان و حل سوالات ریاضی بهتر عمل می‌کند. این شرکت همچنین ادعا می‌کند که مدل جدیدش با وجود اندازه کوچک‌تر، می‌تواند در رقابت با Google Gemini Nano 2 که به‌تازگی معرفی شده‌است، برابری کند. این مدل نیز مثل دیگر مدل‌های زبان کوچک روی داده‌های مشخص آموزش داده شده‌است و با بازخورد انسانی تقویت نمی‌شود، به همین دلیل در مقایسه با Llama-2 شاهد کاهش سوگیری بوده‌است.

در هفتۀ گذشته مدل جدید زبان کوچک مایکروسافت به نام Phi-2، منتشر شد. این مدل زبان  کوچک دارای ۲.۷ میلیارد پارامتر است و پیشرفت قابل توجهی نسبت به مدل قبلی همین شرکت با ۱.۳ میلیارد پارامتر محسوب می‌شود. مایکروسافت ادعا می‌کند که Phi-2 نسبت به رقیبانش عملکرد بهتری ارائه خواهدداد و حتی در مقایسه با مدل جدید گوگل نیز می‌تواند عملکرد بهتر یا برابری را از خود نشان دهد. این مدل هم‌اکنون در کاتالوگ مدل‌های مایکروسافت در Azure AI Studio قابل دسترس است.

شما چه فکر می‎‌کنید؟ Phi-2 قوی‌تر عمل خواهدکرد یا Google Gemini Nano 2؟

بنر اخبار هوش مصنوعی

میانگین امتیاز / ۵. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]