Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 کاربرد نظریه بازی‌ها در ارتقای قابلیت اطمینان مدل‌های زبانی

کاربرد نظریه بازی‌ها در ارتقای قابلیت اطمینان مدل‌های زبانی

زمان مطالعه: 3 دقیقه

پژوهشگران آزمایشگاه علوم رایانه و هوش مصنوعی (CSAIL) در مؤسسه فناوری ماساچوست (MIT) رویکردی نوین با عنوان «بازی اجماع» (consensus game) طراحی کردند تا توانایی‌های درک و تولید متن در سیستم‌های هوش مصنوعی را بهبود بخشند.

تصور کنید شما و همکارتان در فعالیتی مشارکتی درگیر هستید که هدف آن انتقال پیام‌های محرمانه از طریق جملاتی رمزگونه است. وظیفه همکارهای شما، رمزگشایی پیام نهفته در جملات است. گاه سرنخ‌ها به‌صورت مستقیم ارائه می‌شوند و گاه همکارهای شما باید با طرح پرسش‌های بله یا خیر، درباره سرنخ‌های ارائه‌شده، پیام اصلی را کشف کنند. چالش اصلی، اطمینان از درک متقابل و دستیابی به توافق بر سر پیام محرمانه است.

پژوهشگران آزمایشگاه علوم رایانه و هوش مصنوعی (CSAIL) در «MIT»، رویکردی مشابه را طراحی کردند تا توانایی‌های درک و تولید متن در هوش مصنوعی را تقویت کنند. این رویکرد، موسوم به «بازی اجماع»، شامل دو مؤلفه در یک سیستم هوش مصنوعی است: مؤلفه نخست مسئول تولید جملات (مشابه ارائه سرنخ‌ها) و مؤلفه دوم مسئول تحلیل و درک این جملات (مشابه رمزگشایی پیام محرمانه) است.

پژوهشگران دریافتند که با مدل‌سازی تعاملات درون یک سیستم هوش مصنوعی به‌عنوان یک بازی مشارکتی، که در آن دو مؤلفه سیستم بر اساس قواعد مشخص برای دستیابی به اجماع بر سر پیام صحیح همکاری می‌کنند، می‌توان قابلیت‌های مدل زبانی را در ارائه پاسخ‌های دقیق و منسجم به‌طور قابل‌توجهی بهبود بخشید. این رویکرد، که در قالب «بازی اجماع» طراحی شده است، در مجموعه‌ای متنوع از وظایف شامل درک مطلب، حل مسائل ریاضی و مکالمه مورد آزمایش قرار گرفت و نتایج نشان‌دهنده بهبود عملکرد در تمامی این حوزه‌ها بود.

به‌طور سنتی، مدل‌های زبانی بزرگ از دو رویکرد برای پاسخ‌گویی استفاده می‌کنند: رویکرد تولیدی که پاسخ‌ها را به‌صورت مستقیم تولید می‌کند و رویکرد تمایزی که پاسخ‌های از پیش تعیین‌شده را امتیازدهی می‌کند. این دو روش گاه به نتایج ناسازگار منجر می‌شوند. برای نمونه، در یک پرس‌وجوی تولیدی، سؤال «رئیس‌جمهور ایالات متحده کیست؟» ممکن است پاسخ «جو بایدن» را تولید کند، اما در رویکرد تمایزی، این پاسخ ممکن است نادرست ارزیابی شود و به‌جای آن، پاسخی مانند «باراک اوباما» پیشنهاد شود. چالش کلیدی، آشتی دادن این ناسازگاری‌ها برای دستیابی به پیش‌بینی‌های منسجم و کارآمد است.

«آتول جیکوب»، دانشجوی دکتری مهندسی برق و علوم رایانه در مؤسسه فناوری ماساچوست (MIT) و عضو آزمایشگاه علوم رایانه و هوش مصنوعی (CSAIL)، اظهار کرد: «ما رویکردی نوین و بدون نیاز به آموزش طراحی کردیم که فرآیند تولید و درک متن را به‌عنوان یک بازی پیچیده از سرنخ‌ها و سیگنال‌ها مدل‌سازی می‌کند. در این بازی، مؤلفه تولیدی تلاش می‌کند پیام صحیح را از طریق زبان طبیعی به مؤلفه تمایزی منتقل کند. به‌جای استفاده از ابزارهای سنتی، این فرآیند با واژگان و جملات پیش می‌رود. ما مفهوم «تعادل تقریبی» را معرفی کردیم که به توسعه الگوریتم رمزگشایی جدیدی با نام «رتبه‌بندی تعادلی» منجر شد. این روش نشان‌دهنده ظرفیت نظریه بازی‌ها در حل چالش‌های مرتبط با افزایش قابلیت اطمینان و انسجام مدل‌های زبانی است.»

آزمایش‌های انجام‌شده بر روی وظایفی نظیر درک مطلب، استدلال مبتنی بر عقل سلیم، حل مسائل ریاضی و گفت‌وگو نشان داد که الگوریتم پیشنهادی به‌طور مداوم عملکرد مدل‌ها را بهبود می‌بخشد. به‌ویژه، کاربرد الگوریتم «رتبه‌بندی تعادلی» (ER) در کنار مدل «LLaMA-7B» عملکردی بهتر از مدل‌های بسیار بزرگ‌تر ارائه می‌دهد. «جیکوب» می‌افزاید: «مشاهده چنین سطحی از بهبود در مدل‌هایی که پیش‌تر رقابتی هستند و برای مدتی مورد توجه جامعه علمی قرار دارند، به‌ویژه عملکردی بهتر از مدلی با ده برابر اندازه، حقیقتاً قابل‌توجه است.»

«احمد بیرامی»، دانشمند پژوهشی در «Google Research» که در این پروژه مشارکت نداشته، اظهار می‌کند: «برای دهه‌ها، فرآیند رمزگشایی مدل‌های زبانی تغییر چندانی نکرده است. رویکرد پیشنهادی پژوهشگران MIT، چارچوبی نوآورانه مبتنی بر نظریه بازی‌ها برای رمزگشایی ارائه می‌دهد که از طریق حل تعادل در یک بازی اجماع عمل می‌کند. نتایج برجسته گزارش‌شده در این پژوهش، نویدبخش تحولی بنیادین در روش‌های رمزگشایی مدل‌های زبانی است و می‌تواند زمینه‌ساز کاربردهای نوینی شود.»

این پژوهش توسط «آتول جیکوب»، همراه با «ییکانگ شن» (پژوهشگر آزمایشگاه واتسون MIT-IBM)، و دو استادیار گروه مهندسی برق و علوم رایانه MIT، «گابریله فارینا» و «جیکوب آندریاس» (عضو CSAIL)، انجام شده است. مقاله آن‌ها در کنفرانس بین‌المللی یادگیری نمایش‌ها (ICLR) که اوایل ماه جاری برگزار شد، ارائه و به‌عنوان «مقاله برجسته» برگزیده شد. همچنین این پژوهش در کارگاه R0-FoMo کنفرانس «NeurIPS» در دسامبر ۲۰۲۳ جایزه «بهترین مقاله» را دریافت کرد.

کاربرد نظریه بازی‌ها در طراحی فرآیند رمزگشایی مدل‌های زبانی، نه‌تنها به حل یکی از مهم‌ترین چالش‌های این مدل‌ها یعنی ناسازگاری و عدم انسجام پاسخ‌ها کمک می‌کند، بلکه می‌تواند مسیر توسعه مدل‌هایی با قابلیت اطمینان و درک بهتر را هموار کند. این رویکرد نوآورانه با ایجاد تعاملات هدفمند و مبتنی بر همکاری میان مؤلفه‌های درون‌مدل، منجر به پیشرفت چشمگیر در عملکرد مدل‌های زبانی شده و می‌تواند الهام‌بخش تحقیقات و راهکارهای جدیدی در حوزه هوش مصنوعی و پردازش زبان طبیعی باشد.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]