
هوش مصنوعی در حل سودوکو ضعیف است و در توضیح تصمیمهایش ضعیفتر
گزارش تازه دانشگاه کلرادو نشان میدهد مدلهای زبانی بزرگ نهتنها در حل معماهایی مانند سودوکو ناکام هستند، بلکه هنگام توضیح روند تصمیمگیری خود نیز دچار خطا، توهم یا حتی پاسخهای بیربط میشوند؛ یافتهای که پرسشهای جدی درباره اعتماد به هوش مصنوعی در تصمیمهای روزمره و حیاتی ایجاد میکند.
گروهی از پژوهشگران دانشگاه کلرادو بولدر در مطالعهای جدید عملکرد چتباتهای مبتنی بر مدلهای زبانی بزرگ (LLM) را در حل معماهای سودوکو بررسی کردند. نتایج نشان داد حتی پازلهای سادهتر ۶×۶ سودوکو نیز بدون کمک ابزارهای جانبی برای این مدلها دشوار بوده است.
اما یافته مهمتر به توانایی مدلها در توضیح منطق تصمیمگیری مربوط میشود. پژوهشگران دریافتند این هوشهای مصنوعی اغلب قادر به ارائه توضیح درست و شفاف نیستند؛ در مواردی توضیحات غیرمنطقی دادهاند، گاهی دچار «توهم» شدهاند و حتی در میانه حل پازل، درباره وضعیت آبوهوای دنور صحبت کردهاند.
«آشوتوش تریودی»، استاد علوم رایانه و نویسنده اصلی مقاله، تأکید کرد:«اگر ابزارهای هوش مصنوعی نتوانند بهروشنی توضیح دهند که چرا یک تصمیم گرفته شده، اعتماد به آنها در حوزههایی مانند رانندگی، مالیات یا حتی تصمیمهای حقوقی خطرناک خواهد بود.»
این مطالعه که در نشریه Findings of the Association for Computational Linguistics منتشر شده، بخشی از مجموعه تحقیقات تازه درباره ضعفهای LLMها است. پیشتر نیز پژوهشهایی نشان دادهاند این مدلها بیشتر به تولید پاسخهایی میپردازند که برای کاربر قانعکننده باشد، نه الزاماً دقیق و مبتنی بر واقعیت.
کارشناسان میگویند با توجه به اینکه شرکتهای فناوری در حال طراحی «عاملهای هوش مصنوعی» برای انجام کارهای مهم انسانی هستند، شفافیت و صداقت در توضیح تصمیمها باید به یک اولویت جدی تبدیل شود.