Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 در آموزش هوش مصنوعی یک اشتباه بزرگ کردیم

اعتراف OpenAI:

در آموزش هوش مصنوعی یک اشتباه بزرگ کردیم

زمان مطالعه: < 1 دقیقه

OpenAI اعلام کرده علت اصلی «توهمات» مدل‌های زبانی هوش مصنوعی، روش اشتباه در آموزش آن‌ها بوده است. این شرکت می‌گوید مدل‌ها به جای اینکه بپذیرند پاسخی نمی‌دانند، تشویق به «حدس زدن» شده‌اند و همین باعث تولید جواب‌های نادرست شده است.

مشکل «توهم» یا تولید پاسخ‌های اشتباه توسط مدل‌های زبانی هوش مصنوعی یکی از بزرگ‌ترین چالش‌های این فناوری است؛ مشکلی که حتی با پیشرفته‌تر شدن مدل‌ها نیز شدت گرفته است.

OpenAI در مقاله‌ای تازه توضیح داده که دلیل این اتفاق، شیوه آموزش مدل‌هاست. در حال حاضر، وقتی مدل پاسخ درستی بدهد امتیاز مثبت می‌گیرد و در صورت پاسخ غلط امتیاز منفی. اما اگر بگوید «نمی‌دانم»، باز هم امتیاز منفی می‌گیرد. به همین دلیل، مدل‌ها یاد می‌گیرند همیشه جواب بدهند، حتی اگر اشتباه باشد، چون «حدس زدن» شانس بیشتری برای گرفتن امتیاز دارد.

پژوهشگران OpenAI این وضعیت را یک «اشتباه ساختاری» در آموزش هوش مصنوعی توصیف کردند و پیشنهاد دادند سیستم ارزیابی تغییر کند: به جای پاداش دادن به حدس‌های اشتباه، باید پاسخ‌های همراه با «عدم قطعیت» امتیاز بگیرند. به این ترتیب مدل‌ها تشویق می‌شوند وقتی جواب را نمی‌دانند، به‌جای ساختن اطلاعات غلط، صادقانه بگویند «اطمینان ندارم».

این شرکت در وبلاگ خود نوشت: «اگر همچنان رتبه‌بندی مدل‌ها بر اساس دقت و شانسِ حدس درست باشد، مدل‌ها به توهم ادامه می‌دهند.» OpenAI مدعی است که اصلاح روش ارزیابی می‌تواند راه را برای ساخت مدل‌های دقیق‌تر و کم‌خطاتر باز کند.

با وجود این، کارشناسان تردید دارند که مشکل به این سادگی برطرف شود. بسیاری معتقدند «توهم» بخشی جدایی‌ناپذیر از ذات مدل‌های زبانی است و ممکن است محدودیت بنیادی این فناوری باشد.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]