Mistral AI از مدل جدید خود، MoE 8x7B، رونمایی کرد
Mistral AI، یک استارتآپ فرانسوی فعال در حوزۀ هوش مصنوعی، یک مدل زبانی به نام MoE 8x7B راه اندازی کردهاست. این استارتآپ که نسبت به رقیبان آمریکایی و کانادایی خود تعداد نیروی بسیار کمتری دارد با انتشار مدل زبانی جدیدش توانست پیشرفت جدیدی را در زمینۀ هوش مصنوعی رقم بزند. این مدل زبانی از معماری Mixture of Expert (MoE) برای رسیدن به عملکرد بهینه و کارایی بهتر بهره میبرد و از این نظر از مدلهای سنتی کارآمدتر عمل میکند. محققان تاکید میکنند که MoE 8x7B در جنبههای مختلفی مثل تولید متن، درک مطلب و کارهایی با نیاز به پردازش بالا از جمله کدنویسی و بهینهسازی سئو، از مدلهای قبلی یعنی Llama2-70B و Qwen-72B عملکردی قدرتمندتر دارد.
رونمایی از MoE 8x7B، عکسالعملهای زیادی را برانگیخت. جی اسکامبلر، مدافع هوش مصنوعی منبع باز، ضمن اشاره به ماهیت جدید این مدل اظهار کرد که دور از انتظار بودن آن احتمالا استراتژی عمدی شرکت Mistral برای جلب توجه رقیبانش و فعالان حوزۀ هوش مصنوعی بودهاست.
شرکت فرانسوی Mistral در ابتدای مسیر رشد و پیشرفت خود قرار دارد و پیشبینیها نشان میدهند که در آینده خبرهای بیشتری از این شرکت شنیده خواهدشد. Mistral در سپتامبر ماه جاری با عرضه اولین مدل هوش مصنوعی زبان بزرگ خود، Mistral 7B، به شهرت رسید و پس از آن با جمعآوری 118 میلیون دلار سرمایه توانست توجهات بیشتری را به خود جلب کند.
مدل MoE 8x7B دارای ویژگیهایی است که آن را از رقیبان خود متمایز میکند؛ مثلا طبق اطلاعات منتشر شده، این مدل 8 اکسپرت دارد که هر کدام از آنها خود دارای 7 میلیارد پارامتر هستند. علاوه بر این، این مدل درک عمیقتری از مشکلات زبانی دارد که منجر به بهبود ترجمه ماشینی، توانایی تعاملات چتبات و بازیابی اطلاعات میشود. معماری MoE برای مدل جدید Mistral امکان تخصیص منابع کارآمدتر را فراهم میکند و همین موضوع باعث پردازش سریعتر و هزینههای محاسباتی کمتر میگردد.
MoE 8x7B در زمینۀ مدلهای زبانی گامی رو به جلو محسوب میشود و عملکرد، کارایی و تطبیقپذیری آن امکانات زیادی را برای صنایع مختلف به ارمغان میآورد. تحلیلگران بر این باور هستند که با توسعۀ کاربرد هوش مصنوعی، مدلهایی مثل MoE 8x7B به ابزارهایی ضروری برای کسبوکارها و مشاغل دیجیتالی تبدیل خواهندشد و جایگاه خود را میان توسعهدهندگانی که به دنبال ارتقای تخصص دیجیتالی و استراتژیهای محتوایی خود هستند، خواهندیافت.
شرکت فرانسوی Mistral AI با رونمایی از مدل زبان بزرگ جدید خود، MoE 8x7B، توجهات زیادی را در دنیای هوش مصنوعی به خود جلب کرد. این مدل پیچیدگیهای فنی و تاکتیکهای غیرمعمول بازاریابی را ترکیب میکند و از این طریق روشی نوین پیشروی صاحبان کسبوکار قرار خواهدداد. جامعۀ هوش مصنوعی همچنان درحال بررسی و ارزیابی این مدل جدید است؛ زیرا این مدل توانستهاست که تحلیلگران این حوزه را با کاربردها و اثرات عظیمش شگفتزده کند. ویژگیهای منحصربهفرد MoE 8x7B میتواند راههای جدیدی را برای پژوهش و تحقیق در زمینههای گوناگونی مثل آموزش، مراقبتهای بهداشتی و اکتشافات علمی پیش روی توسعهدهندگان قرار دهد. شرکت Mistral با فعالیتهای اخیرش پیشرفت بزرگی را برای خود رقم زدهاست و پیشبینی میشود که مسیر رشد این شرکت در آینده نیز ادامه داشتهباشد.