Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 هوش مصنوعی در حل سودوکو ضعیف است و در توضیح تصمیم‌هایش ضعیف‌تر

هوش مصنوعی در حل سودوکو ضعیف است و در توضیح تصمیم‌هایش ضعیف‌تر

زمان مطالعه: < 1 دقیقه

گزارش تازه دانشگاه کلرادو نشان می‌دهد مدل‌های زبانی بزرگ نه‌تنها در حل معماهایی مانند سودوکو ناکام هستند، بلکه هنگام توضیح روند تصمیم‌گیری خود نیز دچار خطا، توهم یا حتی پاسخ‌های بی‌ربط می‌شوند؛ یافته‌ای که پرسش‌های جدی درباره اعتماد به هوش مصنوعی در تصمیم‌های روزمره و حیاتی ایجاد می‌کند.

گروهی از پژوهشگران دانشگاه کلرادو بولدر در مطالعه‌ای جدید عملکرد چت‌بات‌های مبتنی بر مدل‌های زبانی بزرگ (LLM) را در حل معماهای سودوکو بررسی کردند. نتایج نشان داد حتی پازل‌های ساده‌تر ۶×۶ سودوکو نیز بدون کمک ابزارهای جانبی برای این مدل‌ها دشوار بوده است.

اما یافته مهم‌تر به توانایی مدل‌ها در توضیح منطق تصمیم‌گیری مربوط می‌شود. پژوهشگران دریافتند این هوش‌های مصنوعی اغلب قادر به ارائه توضیح درست و شفاف نیستند؛ در مواردی توضیحات غیرمنطقی داده‌اند، گاهی دچار «توهم» شده‌اند و حتی در میانه حل پازل، درباره وضعیت آب‌وهوای دنور صحبت کرده‌اند.

«آشوتوش تریودی»، استاد علوم رایانه و نویسنده اصلی مقاله، تأکید کرد:«اگر ابزارهای هوش مصنوعی نتوانند به‌روشنی توضیح دهند که چرا یک تصمیم گرفته شده، اعتماد به آنها در حوزه‌هایی مانند رانندگی، مالیات یا حتی تصمیم‌های حقوقی خطرناک خواهد بود.»

این مطالعه که در نشریه Findings of the Association for Computational Linguistics منتشر شده، بخشی از مجموعه تحقیقات تازه درباره ضعف‌های LLMها است. پیش‌تر نیز پژوهش‌هایی نشان داده‌اند این مدل‌ها بیشتر به تولید پاسخ‌هایی می‌پردازند که برای کاربر قانع‌کننده باشد، نه الزاماً دقیق و مبتنی بر واقعیت.

کارشناسان می‌گویند با توجه به اینکه شرکت‌های فناوری در حال طراحی «عامل‌های هوش مصنوعی» برای انجام کارهای مهم انسانی هستند، شفافیت و صداقت در توضیح تصمیم‌ها باید به یک اولویت جدی تبدیل شود.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]