Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 چرا مدل‌های زبانی دچار «توهم» می‌شوند؟

پژوهش جدید OpenAI:

چرا مدل‌های زبانی دچار «توهم» می‌شوند؟

زمان مطالعه: < 1 دقیقه

شرکت OpenAI در گزارشی تازه توضیح داده است که چرا حتی پیشرفته‌ترین مدل‌های زبانی مانند ChatGPT و GPT-5 گاهی پاسخ‌های اشتباه اما قاطعانه تولید می‌کنند. این پدیده که با عنوان «توهم» شناخته می‌شود، ریشه در شیوه آموزش و ارزیابی مدل‌ها دارد و به گفته پژوهشگران، تنها با بازنگری در روش‌های سنجش عملکرد می‌توان آن را کاهش داد.

«توهم» زمانی رخ می‌دهد که یک مدل زبانی پاسخی تولید کند که درست به نظر می‌رسد اما در واقع نادرست است. این مشکل حتی در ساده‌ترین پرسش‌ها هم دیده می‌شود. برای نمونه، پژوهشگران از یک مدل درباره پایان‌نامه دکتری یکی از نویسندگان مقاله پرسیدند و مدل با اطمینان چند پاسخ مختلف ارائه کرد که همگی غلط بودند.

بر اساس این تحقیق، دلیل اصلی توهم‌ها به شیوه فعلی آموزش و ارزیابی برمی‌گردد. مدل‌ها در فرایند آموزش مانند کسی عمل می‌کنند که در یک آزمون چندگزینه‌ای اگر پاسخ را نداند، حدس می‌زند؛ چون در سیستم‌های فعلی، پاسخ ندادن به سؤال نمره‌ای ندارد اما حدس زدن ممکن است شانس درستی داشته باشد. همین ساختار باعث می‌شود مدل‌ها برای کسب امتیاز بیشتر به جای اعتراف به ندانستن، پاسخ اشتباه اما قاطعانه بدهند.

پژوهشگران OpenAI می‌گویند روش‌های کنونی سنجش، دقت را بر همه چیز مقدم می‌دانند و به همین دلیل، مدل‌ها یاد می‌گیرند که حدس بزنند. در حالی که اگر در ارزیابی‌ها «اشتباه قاطعانه» بیشتر از «پاسخ ندادن» جریمه شود، انگیزه مدل‌ها برای اعتراف به عدم قطعیت افزایش خواهد یافت.

این گزارش همچنین توضیح می‌دهد که چرا مدل‌های زبانی کمتر در مواردی مثل املا یا دستور زبان اشتباه می‌کنند اما در حقایق کم‌تکرار (مثلاً تاریخ تولد افراد) دچار خطا می‌شوند. دلیل آن است که الگوهای زبانی قابل پیش‌بینی‌اند، اما اطلاعات پراکنده و تصادفی به‌سادگی از روی داده‌ها قابل یادگیری نیستند.

OpenAI در پایان تأکید کرده است که هرچند توهمات کاملاً از بین نخواهند رفت، اما با تغییر رویکرد در آموزش و ارزیابی، می‌توان نرخ این خطاها را به‌طور قابل توجهی کاهش داد.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]