Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 چرا ChatGPT در گفتن یک زمان ساده شکست می‌خورد؟

چرا ChatGPT در گفتن یک زمان ساده شکست می‌خورد؟

زمان مطالعه: 2 دقیقه

در دنیایی که هوش مصنوعی به سرعت در حال بلعیدن وظایف پیچیده انسانی است و از نوشتن مقاله تا برنامه‌نویسی را برعهده می‌گیرد، یک تناقض مضحک و حیرت‌آور در مورد مدل‌های زبانی مانند ChatGPT وجود دارد: این سیستم نمی‌تواند به طور قابل اعتماد ساعت دقیق را به کاربر بگوید.

این ضعف، که در فروم‌های تخصصی به یک کنایه بدل شده است، ریشه در معماری بنیادین این مدل‌های عظیم دارد و ثابت می‌کند که توانایی‌های شناختی آن‌ها، کاملاً در فضای «زبان» محبوس شده است.

سردرگمی یک نابغه در مقابل عقربه‌های ساعت

تجربه‌های کاربران نشان می‌دهد که وقتی از ChatGPT در مورد زمان محلی پرسش می‌شود، پاسخ‌ها هیچ ثباتی ندارند. گاهی مدل با صراحت می‌گوید که به ساعت دستگاه دسترسی ندارد، و گاهی با یک حدس کاملاً اشتباه (مثلاً ۱۲:۴۲ ظهر در نیویورک، در حالی که ساعت واقعی ۱۱:۰۸ صبح بوده) سعی در پاسخگویی می‌کند.

«پاسکواله مینروینی»، محقق پردازش زبان طبیعی، معتقد است این ناتوانی ریشه در نحوه ساخت این مدل‌ها دارد. مدل‌های زبان بزرگ مانند ChatGPT به طور پیش‌فرض، جهان را صرفاً از طریق داده‌های آموزشی ایستا درک می‌کنند.

جوانب تکنیکی ناتوانی:

  • کتابخانه‌ای بدون ساعت: یروانت کلباشیان، متخصص رباتیک و هوش مصنوعی، مدل زبان را به «غریق نجاتی در جزیره‌ای انباشته از کتاب» تشبیه می‌کند. این مدل به انبوهی از اطلاعات زبانی دسترسی دارد، اما هیچ ساعت داخلی یا سیستم زمان واقعی ندارد که بتواند گذر لحظه‌ای زمان را درک کند.
  • فضای زمینه محدود (Context Window): اگرچه می‌توان با فعال کردن توابعی مانند «جستجوی وب» (Search)، پل ارتباطی با ساعت دستگاه یا اینترنت ایجاد کرد (و اینگونه برخی کاربران از طریق اپلیکیشن دسکتاپ پاسخ صحیح را دریافت می‌کنند)، اما محققان هشدار می‌دهند که افزودن مکرر اطلاعات زمان به پنجره زمینه (Context Window) مدل، مانند «شلوغ کردن بیش از حد میز کار» است. هر لحظه به‌روزرسانی زمان، فضای حافظه کوتاه‌مدت مدل را اشغال می‌کند و می‌تواند عملکرد آن را در فهم گفتگو مختل سازد.

خطر بزرگتر از ساعت؛ بحران عدم صداقت ماشینی

این مشکل، تنها محدود به خواندن ساعت نیست. محققان به فهرستی از ناتوانی‌های دیگر مدل‌ها در رابطه با زمان اشاره می‌کنند، از جمله: ناتوانی در خواندن صحیح ساعت‌های آنالوگ از روی تصویر و سردرگمی در مدیریت تقویم‌ها.

اما شاید بزرگترین مشکل، «عدم صداقت» مدل باشد. یک دستیار انسانی که نداند ساعت چند است، می‌گوید «نمی‌دانم»، اما مدل‌های زبانی، بر اساس هدف اصلی خود یعنی «پیش‌بینی بهترین پاسخ زبانی ممکن»، ممکن است پاسخی غلط ارائه دهند تا «آنچه شما می‌خواهید بشنوید» را بگویند. این رفتار، که ناشی از مکانیسم داخلی مدل است و نه قصد فریب، می‌تواند اعتماد کاربر را به قابلیت‌های اساسی هوش مصنوعی خدشه‌دار کند.

OpenAI اعلام کرده که در حال کار برای بهبود سازوکار دسترسی مدل‌ها به زمان است، اما این نقص اساسی همچنان به عنوان نمادی از شکاف عظیم بین توانایی‌های زبان‌شناختی مدل و درک واقعیت فیزیکی جهان باقی مانده است.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]