مایکروسافت مدل زبانی کوچک Phi-2 را منتشر کرد
به گزارش هوشیو، هفته گذشته، شرکت بزرگ مایکروسافت که بهعنوان یکی از تاثیرگذارترین بازیکنان در عرصۀ هوش مصنوعی شناخته میشود، آخرین نسخه از مجموعۀ مدلهای زبان کوچک خود (SLM) را با نام Phi-2 در کاتالوگ مدلهای خود در Azure AI Studio، در دسترس عموم قرار داد. این مدل زبان کوچک هماکنون فقط برای اهداف تحقیقاتی قابل استفاده است.
SLM یا مدل زبان کوچک نوعی از مدلهای زبانی است که فقط روی یک دامنه خاص توسعه و آموزش داده میشود و این موضوع آن را برای استفادۀ آکادمیک و رسیدن به اهداف علمی و تحقیقاتی، تبدیل به گزینهای ایدآل میکند. این مدل همچنین به دلیل اندازه کوچکتر، نسب به مدلهای زبان بزرگ مقرونبهصرفهتر است و برای انجام وظایفی طراحی و تولید میشود که نیاز به توان محاسباتی عظیمی ندارند.
یکی از نقاط قوت مهم و قابل توجه مدل زبانی جدید مایکروسافت، Phi-2، تمرکز بر کیفیت محتوا بر اساس کتب درسی برای آموزش است. شرکت مایکروسافت دراینباره چنین توضیح داد که:«Phi-2 با اندازه کوچک خود، عرصهای ایدهآل برای تحقیقات محققان از جمله کاوش در تفسیرپذیری مکانیکی، بهبود ایمنی و آزمایشهای دقیق روی انواع پروژهها است.» این شرکت در ادامه اظهار داشت که:«مخلوط دادههای آموزشی ما شامل مجموعههای داده مصنوعی است که بهطور خاص برای آموزش استدلال عقلی و دانش عمومی از جمله علم، فعالیتهای روزانه و تئوری ذهنی و مواردی از این دست ایجاد شدهاست. ما مجموعه آموزشی خود را با دادههای وب که به دقت انتخاب شدهاند، تقویت میکنیم و درواقع این دادهها براساس ارزش آموزشی و کیفیت محتوا فیلتر میشوند.»
با وجود این که Phi-2 یک مدل زبان کوچک است، اما 2.7 میلیارد پارامتر دارد و در مقایسه با مدل قبلی این شرکت، Phi-1.5، که تنها دارای 1.3 میلیارد پارامتر بود، پیشرفتی بزرگ محسوب میشود. علاوهبراین و با نظر بر رویکرد ویژه شرکت مایکروسافت در مقیاسبندی، شاید بتوان ادعای این شرکت را مبنی بر عملکرد بهتر Phi-2 نسب به مدلهایی که 25 برابر بزرگتر هستند، پذیرفت. تستهای بنچمارک شرکت مایکروسافت نشان میدهند که Phi-2 با 2.7 میلیارد پارامتر خود از دو رقیب اصلیاش، SLM Mistrial با 7 میلیارد پارامتر و Llama-2 7-70 میلیارد پارامتر، در استدلالهای مشترک، درک زبان و حل سوالات ریاضی بهتر عمل میکند. این شرکت همچنین ادعا میکند که مدل جدیدش با وجود اندازه کوچکتر، میتواند در رقابت با Google Gemini Nano 2 که بهتازگی معرفی شدهاست، برابری کند. این مدل نیز مثل دیگر مدلهای زبان کوچک روی دادههای مشخص آموزش داده شدهاست و با بازخورد انسانی تقویت نمیشود، به همین دلیل در مقایسه با Llama-2 شاهد کاهش سوگیری بودهاست.
در هفتۀ گذشته مدل جدید زبان کوچک مایکروسافت به نام Phi-2، منتشر شد. این مدل زبان کوچک دارای 2.7 میلیارد پارامتر است و پیشرفت قابل توجهی نسبت به مدل قبلی همین شرکت با 1.3 میلیارد پارامتر محسوب میشود. مایکروسافت ادعا میکند که Phi-2 نسبت به رقیبانش عملکرد بهتری ارائه خواهدداد و حتی در مقایسه با مدل جدید گوگل نیز میتواند عملکرد بهتر یا برابری را از خود نشان دهد. این مدل هماکنون در کاتالوگ مدلهای مایکروسافت در Azure AI Studio قابل دسترس است.
شما چه فکر میکنید؟ Phi-2 قویتر عمل خواهدکرد یا Google Gemini Nano 2؟