Filter by دسته‌ها
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
دوره
کارگاه
وبینار
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
وبینارها، کارگاره‌ها و دوره‌ها
 Mistral AI از مدل جدید خود، MoE 8x7B، رونمایی کرد

Mistral AI از مدل جدید خود، MoE 8x7B، رونمایی کرد

Mistral AI، یک استارت‌آپ فرانسوی فعال در حوزۀ هوش مصنوعی، یک مدل زبانی به نام MoE 8x7B راه اندازی کرده‌است. این استارت‌آپ که نسبت به رقیبان آمریکایی و کانادایی خود تعداد نیروی بسیار کمتری دارد با انتشار مدل زبانی جدیدش توانست پیشرفت جدیدی را در زمینۀ هوش مصنوعی رقم بزند. این مدل زبانی از معماری Mixture of Expert (MoE) برای رسیدن به عملکرد بهینه و کارایی بهتر بهره می‌برد و از این نظر از مدل‌های سنتی کارآمدتر عمل می‌کند. محققان تاکید می‌کنند که MoE 8x7B در جنبه‌های مختلفی مثل تولید متن، درک مطلب و کارهایی با نیاز به پردازش بالا از جمله کدنویسی و بهینه‌سازی سئو، از مدل‌های قبلی یعنی Llama2-70B و Qwen-72B عملکردی قدرتمندتر دارد.

رونمایی از MoE 8x7B، عکس‌العمل‌های زیادی را برانگیخت. جی اسکامبلر، مدافع هوش مصنوعی منبع باز، ضمن اشاره به ماهیت جدید این مدل اظهار کرد که دور از انتظار بودن آن احتمالا استراتژی عمدی شرکت Mistral برای جلب توجه رقیبانش و فعالان حوزۀ هوش مصنوعی بوده‌است.

شرکت فرانسوی Mistral در ابتدای مسیر رشد و پیشرفت خود قرار دارد و پیش‌بینی‌ها نشان می‌دهند که در آینده خبرهای بیشتری از این شرکت شنیده خواهدشد. Mistral در سپتامبر ماه جاری با عرضه اولین مدل هوش مصنوعی زبان بزرگ خود، Mistral 7B، به شهرت رسید و پس از آن با جمع‌آوری 118 میلیون دلار سرمایه توانست توجهات بیشتری را به خود جلب کند.

مدل MoE 8x7B دارای ویژگی‎‌هایی است که آن را از رقیبان خود متمایز می‌کند؛ مثلا طبق اطلاعات منتشر شده، این مدل 8 اکسپرت دارد که هر کدام از آن‌ها خود دارای 7 میلیارد پارامتر هستند. علاوه بر این، این مدل درک عمیق‌تری از مشکلات زبانی دارد که منجر به بهبود ترجمه ماشینی، توانایی تعاملات چت‌بات و بازیابی اطلاعات می‌شود. معماری MoE برای مدل جدید Mistral امکان تخصیص منابع کارآمدتر را فراهم می‌کند و همین موضوع باعث پردازش سریع‌تر و هزینه‌های محاسباتی کمتر می‌گردد.

MoE 8x7B در زمینۀ مدل‌های زبانی گامی رو به جلو محسوب می‌شود و عملکرد، کارایی و تطبیق‌پذیری آن امکانات زیادی را برای صنایع مختلف به ارمغان می‌آورد. تحلیلگران بر این باور هستند که با توسعۀ کاربرد هوش مصنوعی، مدل‌هایی مثل MoE 8x7B به ابزارهایی ضروری برای کسب‌وکارها و مشاغل دیجیتالی تبدیل خواهندشد و جایگاه خود را میان توسعه‌‎دهندگانی که به دنبال ارتقای تخصص دیجیتالی و استراتژی‌های محتوایی خود هستند، خواهندیافت.

شرکت فرانسوی Mistral AI با رونمایی از مدل زبان بزرگ جدید خود، MoE 8x7B، توجهات زیادی را در دنیای هوش مصنوعی به خود جلب کرد. این مدل پیچیدگی‌های فنی و تاکتیک‌های غیرمعمول بازاریابی را ترکیب می‌کند و از این طریق روشی نوین پیش‌روی صاحبان کسب‌وکار قرار خواهدداد. جامعۀ هوش مصنوعی همچنان درحال بررسی و ارزیابی این مدل جدید است؛ زیرا این مدل توانسته‌است که تحلیلگران این حوزه را با کاربردها و اثرات عظیمش شگفت‌زده کند. ویژگی‌های منحصربه‌فرد MoE 8x7B می‌تواند راه‌های جدیدی را برای پژوهش و تحقیق در زمینه‌های گوناگونی مثل آموزش، مراقبت‌های بهداشتی و اکتشافات علمی پیش روی توسعه‌دهندگان قرار دهد. شرکت Mistral با فعالیت‌های اخیرش پیشرفت بزرگی را برای خود رقم زده‌است و پیش‌بینی می‌‍شود که مسیر رشد این شرکت در آینده نیز ادامه داشته‌باشد.

بنر اخبار هوش مصنوعی

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
لطفاً برای تکمیل این فرم، جاوا اسکریپت را در مرورگر خود فعال کنید.