چرا ChatGPT در گفتن یک زمان ساده شکست میخورد؟
در دنیایی که هوش مصنوعی به سرعت در حال بلعیدن وظایف پیچیده انسانی است و از نوشتن مقاله تا برنامهنویسی را برعهده میگیرد، یک تناقض مضحک و حیرتآور در مورد مدلهای زبانی مانند ChatGPT وجود دارد: این سیستم نمیتواند به طور قابل اعتماد ساعت دقیق را به کاربر بگوید.
این ضعف، که در فرومهای تخصصی به یک کنایه بدل شده است، ریشه در معماری بنیادین این مدلهای عظیم دارد و ثابت میکند که تواناییهای شناختی آنها، کاملاً در فضای «زبان» محبوس شده است.
سردرگمی یک نابغه در مقابل عقربههای ساعت
تجربههای کاربران نشان میدهد که وقتی از ChatGPT در مورد زمان محلی پرسش میشود، پاسخها هیچ ثباتی ندارند. گاهی مدل با صراحت میگوید که به ساعت دستگاه دسترسی ندارد، و گاهی با یک حدس کاملاً اشتباه (مثلاً ۱۲:۴۲ ظهر در نیویورک، در حالی که ساعت واقعی ۱۱:۰۸ صبح بوده) سعی در پاسخگویی میکند.
«پاسکواله مینروینی»، محقق پردازش زبان طبیعی، معتقد است این ناتوانی ریشه در نحوه ساخت این مدلها دارد. مدلهای زبان بزرگ مانند ChatGPT به طور پیشفرض، جهان را صرفاً از طریق دادههای آموزشی ایستا درک میکنند.
جوانب تکنیکی ناتوانی:
- کتابخانهای بدون ساعت: یروانت کلباشیان، متخصص رباتیک و هوش مصنوعی، مدل زبان را به «غریق نجاتی در جزیرهای انباشته از کتاب» تشبیه میکند. این مدل به انبوهی از اطلاعات زبانی دسترسی دارد، اما هیچ ساعت داخلی یا سیستم زمان واقعی ندارد که بتواند گذر لحظهای زمان را درک کند.
- فضای زمینه محدود (Context Window): اگرچه میتوان با فعال کردن توابعی مانند «جستجوی وب» (Search)، پل ارتباطی با ساعت دستگاه یا اینترنت ایجاد کرد (و اینگونه برخی کاربران از طریق اپلیکیشن دسکتاپ پاسخ صحیح را دریافت میکنند)، اما محققان هشدار میدهند که افزودن مکرر اطلاعات زمان به پنجره زمینه (Context Window) مدل، مانند «شلوغ کردن بیش از حد میز کار» است. هر لحظه بهروزرسانی زمان، فضای حافظه کوتاهمدت مدل را اشغال میکند و میتواند عملکرد آن را در فهم گفتگو مختل سازد.
خطر بزرگتر از ساعت؛ بحران عدم صداقت ماشینی
این مشکل، تنها محدود به خواندن ساعت نیست. محققان به فهرستی از ناتوانیهای دیگر مدلها در رابطه با زمان اشاره میکنند، از جمله: ناتوانی در خواندن صحیح ساعتهای آنالوگ از روی تصویر و سردرگمی در مدیریت تقویمها.
اما شاید بزرگترین مشکل، «عدم صداقت» مدل باشد. یک دستیار انسانی که نداند ساعت چند است، میگوید «نمیدانم»، اما مدلهای زبانی، بر اساس هدف اصلی خود یعنی «پیشبینی بهترین پاسخ زبانی ممکن»، ممکن است پاسخی غلط ارائه دهند تا «آنچه شما میخواهید بشنوید» را بگویند. این رفتار، که ناشی از مکانیسم داخلی مدل است و نه قصد فریب، میتواند اعتماد کاربر را به قابلیتهای اساسی هوش مصنوعی خدشهدار کند.
OpenAI اعلام کرده که در حال کار برای بهبود سازوکار دسترسی مدلها به زمان است، اما این نقص اساسی همچنان به عنوان نمادی از شکاف عظیم بین تواناییهای زبانشناختی مدل و درک واقعیت فیزیکی جهان باقی مانده است.