Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 استارتاپ تحت‌حمایت گوگل به‌روز‌رسانی مدل زبانی پرچمدار خود را منتشر کرد

استارتاپ تحت‌حمایت گوگل به‌روز‌رسانی مدل زبانی پرچمدار خود را منتشر کرد

زمان مطالعه: 2 دقیقه

آنتروپیک، استارت‌آپ هوش مصنوعی تحت حمایت گوگل که توسط مهندسان سابق OpenAI تأسیس شده است، از نسل بعدی محصول هوش مصنوعی پرچمدار خود که در فضای ابری استفاده می‌شود و یک مدل زبانی بزرگ به شمار می‌رود، رونمایی کرده است. این مدل زبان بزرگ Claude 2 نام دارد و با توانایی‌های پیشرفته‌اش، قادر به تجزیه‌و‌تحلیل صدها صفحه متن و ساعت‎ها صدا است. این یک مدل پیشرفته، عملکردی بهتر از نسخه قبلی خود داشته و می‌تواند پاسخ‌های طولانی‌تر، ایمن‌تر و هوشمندانه‌تری ارائه دهد.

به گزارش هوشیو، براساس یک پست وبلاگی از شرکت Entropic ،Claude 2 دارای عملکرد بهبود‌یافته‌ای است و می‌تواند پاسخ‌های طولانی‌تری ارائه دهد. این شرکت حتی یک وب‌سایت بتا عمومی را برای آزمایش این مدل منتشر کرده، اما در حال حاضر تنها کاربران ایالات‌متحده و بریتانیا به دلیل «محدودیت‌های ظرفیت» می‌توانند به آن دسترسی داشته باشند. با این حال، این وب‌سایت در آینده در دسترس همه کاربران در سراسر جهان قرار خواهد گرفت.

Claude 2 بر اساس آخرین به‌روز‌رسانی مدل اصلی Claude ساخته شده، که در ماه مه منتشر گردیده است. این به روز‌رسانی توانایی Claude 2 برای تجزیه‌و‌تحلیل متن را از 9000 توکن به 100000 توکن افزایش داده که این افزایش در قدرت پردازش به حدود 75000 کلمه یا شش ساعت صدای رونویسی شده در هر درخواست تبدیل می‌شود. این بدان معناست که اکنون این مدل زبانی قادر به تجزیه‌و‌تحلیل متون بزرگتر از جمله تحلیل‎های تجاری یا فنی اسناد طولانی مانند صورت‌های مالی یا مقالات تحقیقاتی است. همچنین می‌تواند ویس‌های ضبط‌‌شده طولانی‌تری مانند پادکست‌ها را پردازش کند و خلاصه‌ای از محتوای آنها ارائه دهد.

به عنوان مثال، کلود 2 می‌تواند صورت‌های مالی را با «دیجیتالی کردن» آنها (تبدیل آنها به فرمت دیجیتال)، خلاصه کردن اطلاعات موجود در آنها و توضیح معنای آنها تجزیه‌و‌تحلیل نماید و به این ترتیب امکان تجزیه‌و‌تحلیل ریسک‌ها و فرصت‌های استراتژیک را در صورت‌های مالی فراهم آورد.

این مدل می‌تواند برای اهداف مختلفی مانند تجزیه‌و‌تحلیل مزایا و معایب قوانین جدید، بررسی اسناد قانونی و توسعه‌دهنده و ایجاد یا اصلاح سریع یک پایگاه کد استفاده گردد. اساساً، Anthropic’s Claude می‌تواند با خودکار کردن برخی از وظایفی که اگر به صورت دستی انجام شود، بیشتر طول می‌کشد، به افراد کمک کند تا در زمان خود صرفه‌جویی کنند و تصمیمات بهتری بگیرند.

استارتاپ تحت‌حمایت گوگل

بهبودهای Claude 2

علاوه بر این، آخرین نسخه Claude توانایی‎های کدنویسی و ریاضی و همچنین استدلال پیشرفته را بهبود بخشیده است.

شرکت سازنده کلود 2  آنتروپیک، این مدل زبانی را به یک همکار یا دستیار شخصی مفید و حمایتگر تشبیه کرده که می‌تواند خواسته شما را بفهمد و در انجام بسیاری از وظایف به شما کمک نماید. این استارتاپ هوش مصنوعی، API کلود 2 را بدون هیچ هزینه اضافی برای کسب‌وکارهایی از آن استفاده می‌کنند، یعنی با همان قیمت نسخه قبلی خود  (Cloud 1.3) ارائه می‌کند.

ارتقا ایمنی در خروجی‌های مدل

Anthropic تحقیقات خود را برای بهبود مدل‌های زبانی بزرگ (LLM) با چیزی که «هوش مصنوعی قانونی» نامیده می‌شود، انجام داده است. این موارد شامل آموزش مدل‎های زبانی بزرگ، برای پاسخ دادن به سوالات حقوقی دشوار و در عین حال پیروی از مجموعه‌ای از اصول و قوانین راهنما است که این مدل‌ها را در برابر حملات، کمتر آسیب‌پذیر می‌کند. اگرچه هیچ مدلی کاملاً در برابر حملات مصون نیست، آنتروپیک از تکنیک‌های امنیتی مختلفی برای بهبود دقت خروجی‌های مدل خود استفاده کرده است. این شرکت ادعا می‌کند که مدل کلود 2 را با تکنیک‌های امنیتی مختلف، مانند تیم‌سازی قرمز یا استخدام کارمندان به‌منظور یافتن نقاط ضعف در معماری امنیتی مدل، تقویت کرده است. در اصل، آنتروپیک در حال تحقیق در مورد راه‌هایی برای آموزش مدل‌های زبانی بزرگ به‌منظور پاسخ‌گویی بهتر به سؤالات پیچیده حقوقی است و در عین حال اقدامات امنیتی خود را برای محافظت در برابر حملات سایبری بهبود می‌بخشد.

  محققان انسان‌شناسی همچنین «‌اصلاح خود اخلاقی‌» را آزمایش کرده‌اند که در آن مدل‌های زبانی با استفاده از بازخورد انسان‌ها برای اصلاح خود و اجتناب از تولید نتایج مضر آموزش می‌بینند.  محققان بر این باورند که این تکنیک به صورت بالقوه می‌تواند به حل مسئله مدل‌های زبانی که خروجی‌هایی تولید می‌نمایند که مغرضانه یا به نحوی مضر هستند، کمک نماید.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]