جدیدترین تحولات هوش مصنوعی را در کانال بله هوشیو بخوانید

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 ChatGPT «توهم» نمی‌زند؛ چرت‌وپرت می‌گوید!

ویژه‌نامه هوش مصنوعی ساینتیفیک امریکن

ChatGPT «توهم» نمی‌زند؛ چرت‌وپرت می‌گوید!

زمان مطالعه: 5 دقیقه

هنگام بحث درباره اینکه چت‌بات‌های هوش مصنوعی چگونه اطلاعات را می‌سازند، استفاده از اصطلاحات دقیق مهم است.

امروزه هوش مصنوعی همه‌جا    هست. وقتی سندی می‌نویسید، احتمالاً از شما پرسیده می‌شود که آیا به «دستیار هوش مصنوعی» خود نیاز دارید یا خیر. یک PDF را باز کنید و ممکن است از شما پرسیده شود که آیا می‌خواهید هوش مصنوعی خلاصه‌ای برایتان آماده کند. اما اگر از ChatGPT یا مشابه‌هایش استفاده کرده باشید، احتمالاً با مشکل خاصی آشنا هستید؛ آن‌ها مطالب را از خودشان درمی‌آورند که باعث می‌شود کاربران به چیزهایی که می‌گویند با سوءظن نگاه کنند.

«توهم» یا واژه‌ای گمراه‌کننده؟

این نوع خطا به اصطلاح «توهم» (Hallucination) معروف شده است؛ اما صحبت‌کردن درباره ChatGPT به این شیوه گمراه‌کننده و به‌طور بالقوه مخرب است. در عوض آن را «چرند» بنامید. (نویسندگان از واژه «Bullshit» استفاده کرده‌اند.)

گزارش حاضر در «ویژه‌نامه هوش مصنوعی ساینتیفیک امریکن» منتشر و در «رسانه تخصصی هوش مصنوعی هوشیو» به زبان فارسی نیز ترجمه شده و در دسترس مخاطبان این حوزه قرار گرفته است.

ریشه فلسفی یک اصطلاح جنجالی

ما بی‌دلیل چنین اصطلاحی را به کار نمی‌بریم. چرند در میان فیلسوفان معنای تخصصی دارد؛ معنایی که توسط «هری فرانکفورت» (Harry Frankfurt) فیلسوف فقید آمریکایی رواج یافت. وقتی کسی چرند می‌گوید، حقیقت را نمی‌گوید؛ اما واقعاً دروغ هم نمی‌گوید. فرانکفورت گفت آنچه چرند‌گو را متمایز می‌کند این است که او صرفاً اهمیتی نمی‌دهد که آنچه می‌گوید درست است یا نه. ChatGPT و همتایانش نمی‌توانند اهمیت بدهند؛ بنابراین آن‌ها از نظر فنی ماشین‌های چرندگو هستند.

به‌راحتی می‌توانیم ببینیم چرا چنین چیزی صحیح است و چرا اهمیت دارد. برای مثال، در سال ۲۰۲۳ یک وکیل وقتی از ChatGPT  در تحقیقات خود هنگام نوشتن یک لایحه حقوقی استفاده کرد، خودش را در دردسر بزرگی انداخت.ChatGPT  متأسفانه ارجاعات جعلی و پرونده‌هایی را استناد کرده بود که اصلاً وجود نداشتند.

پشت‌صحنه فنی: مدل‌های زبانی چگونه کار می‌کنند؟

این نتیجه نادر یا غیرعادی نیست. برای درک چرایی آن، بهتر است کمی درباره نحوه کار این برنامه‌ها فکر کنیم. چت‌بات‌های ChatGPT و Gemini و مدل Llama شرکت متا همگی به روش‌های ساختاری مشابهی کار می‌کنند. در هسته آن‌ها یک مدل زبانی بزرگ یا LLM قرار دارد. این مدل‌ها همگی پیش‌بینی‌هایی درباره زبان انجام می‌دهند. با دادن مقداری ورودی، ChatGPT پیش‌بینی خاصی درباره اینکه چه چیزی باید در ادامه بیاید یا پاسخ مناسب چیست، انجام می‌دهد. این کار را از طریق تجزیه‌وتحلیل داده‌های آموزشی خود انجام می‌دهد که شامل مقادیر عظیمی از متن است. در مورد  ChatGPTداده‌های آموزشی اولیه شامل میلیاردها صفحه متن از اینترنت بود.

با دادن قطعه‌ای متن یا همان پرامپت، مدل زبانی بزرگ از داده‌های آموزشی خود استفاده می‌کند تا پیش‌بینی کند چه چیزی باید در ادامه بیاید. این مدل به فهرستی از محتمل‌ترین کلمات یا از نظر فنی همان توکن‌های زبانی که باید در ادامه بیایند می‌رسد. سپس یکی از بهترین گزینه‌ها را انتخاب می‌کند. اینکه به مدل اجازه بدیم هر بارئصرفاً فقط محتمل‌ترین کلمه را انتخاب نکند، زبانی خلاقانه‌تر و شبیه‌تر به انسان را امکان‌پذیر می‌کند. پارامتری که میزان انحراف مجاز را تعیین می‌کند به‌عنوان «تمپرچر» (Temperature) شناخته می‌شود که بیانگر سطح خلاقیت، درجه تصادفی بودن و ضریب تنوع پاسخ‌های مدل است. (در متون تخصصی فارسی برای اصلاح «Temperature» از ارائه ترجمه مستقیم و استفاده از واژه «دما» به دلیل کژتابی معنایی آن خودداری می‌شود و اکثراً از شکل فارسی‌نویسی‌شده «تمپرچر» یا توصیف کلی آن استفاده می‌شود) در مراحل بعدی فرایند، ناظران انسانی پیش‌بینی‌ها را با قضاوت در مورد اینکه آیا خروجی‌ها گفتار معقولی را تشکیل می‌دهند یا نه اصلاح می‌کنند. محدودیت‌های اضافی نیز ممکن است روی برنامه قرار داده شود تا از بروز برخی مشکلات جلوگیری شود (مانند اظهارات نژادپرستانه)، اما این پیش‌بینی توکن‌به‌توکن، ایده‌ای است که زیربنای این فناوری را تشکیل می‌دهد.

فقدان پیوند ذاتی با واقعیت

حال، ما از این توصیف می‌توانیم ببینیم که هیچ‌چیز در مورد مدل‌سازی تضمین نمی‌کند که خروجی‌ها به‌دقت چیزی را در جهان توصیف کنند. دلایل زیادی وجود ندارد که فکر کنیم خروجی‌ها اصلاً به هر نوعی بازنمایی درونی متصل هستند. یک چت‌بات که به‌خوبی آموزش‌دیده، متنی شبیه انسان تولید می‌کند؛ اما هیچ‌چیزی در این فرایند بررسی نمی‌کند که آیا متن درست است یا نه و به همین دلیل است که ما قویاً شک داریم که یک مدل زبانی بزرگ واقعاً آنچه را که می‌گوید، می‌فهمد.

بنابراین گاهی اوقات ChatGPT چیزهای نادرستی می‌گوید. در سال‌های اخیر، همان‌طور که ما به هوش مصنوعی عادت کرده‌ایم، افراد نیز این اشتباهات را «توهمات هوش مصنوعی» ارجاع می‌دهند. هرچند یک عبارت استعاری است، اما ما فکر می‌کنیم استعاره خوبی نیست.

توهم پارادایماتیک (نمونه‌ای) شکسپیر را در نظر بگیرید که در آن مکبث خنجری را می‌بیند که به سمت او شناور است. اینجا چه خبر است؟ مکبث سعی دارد از ظرفیت‌های ادراکی خود به روش معمول استفاده کند، اما مشکلی پیش آمده است.  ظرفیت‌های ادراکی او تقریباً همیشه قابل‌اعتماد هستند؛ او معمولاً خنجرهایی را نمی‌بیند که به طور تصادفی در اطراف شناور باشند! معمولاً بینایی او در بازنمایی جهان کارایی است و به دلیل ارتباطش با جهان، این کار را به‌خوبی انجام می‌دهد.

حالا به ChatGPT فکر کنید. هر زمان که چیزی می‌گوید، صرفاً تلاش می‌کند متنی شبیه انسان تولید کند. هدف فقط ساختن چیزی است که خوب به نظر برسد. این تلاش هرگز مستقیماً به جهان گره نخورده است. وقتی همه چیز اشتباه پیش می‌رود، به این دلیل نیست که ChatGPT در بازنمایی جهان در آن زمان خاص موفق نشده است؛ بلکه او هرگز سعی نمی‌کند جهان را بازنمایی کند! نامیدن نادرستی‌هایش به‌عنوان «توهم» این جنبه را نشان نمی‌دهد.

چرا «چرند» اصطلاح دقیق‌تری است؟

ما در گزارشی در سال ۲۰۲۴ در نشریه Ethics and Information Technology پیشنهاد کردیم که «چرند» اصطلاح بهتری است. همان‌طور که ذکر شد، یک چرند‌گو اهمیت نمی‌دهد که آنچه می‌گوید درست است یا نه.

اگر ما ChatGPT را در تعامل گفت‌وگویی با خودمان در نظر بگیریم؛ اگرچه حتی این ایده هم ممکن است کمی وانمودکردن باشد، پس به نظر می‌رسد این اصطلاح مناسب باشد. تاحدی‌که ChatGPT قصد انجام هر کاری را داشته باشد، قصد دارد متنی متقاعدکننده و شبیه انسان تولید کند. او سعی نمی‌کند چیزهایی درباره جهان بگوید. او فقط دارد چرند می‌گوید و نکته حیاتی این است که حتی وقتی چیزهای درست می‌گوید هم دارد چرند می‌گوید.

چرا این تمایز مهم است؟ آیا «توهم» در اینجا فقط یک استعاره زیبا نیست؟ آیا واقعاً مهم است که مناسب نباشد؟ حداقل به سه دلیل گمان می‌کنیم مهم است.

اول، اصطلاحاتی که استفاده می‌کنیم بر درک عمومی از فناوری تأثیر می‌گذارد که به نوبه خود مهم است. اگر از اصطلاحات گمراه‌کننده استفاده کنیم، احتمال بیشتری دارد که مردم نحوه کار فناوری را اشتباه درک کنند. ما فکر می‌کنیم این خطر به‌خودی‌خود چیز بدی است.

دوم، نحوه توصیف ما از فناوری بر رابطه ما با آن فناوری و نحوه تفکر ما درباره آن تأثیر می‌گذارد و این تصورات می‌توانند مضر باشند. افرادی را در نظر بگیرید که با خودروهای «خودران» به حس امنیت کاذب فرورفته‌اند. ما نگرانیم که صحبت از «توهم زدن» هوش مصنوعی اصطلاحی معمول در روان‌شناسی انسان است، خطر «انسان‌انگاری» (Anthropomorphizing) چت‌بات‌ها را در پی داشته باشد. «اثر الیزا» (The ELIZA Effect) که نامش از یک چت‌بات دهه ۱۹۶۰ گرفته شده زمانی رخ می‌دهد که مردم ویژگی‌های انسانی را به برنامه‌های کامپیوتری نسبت می‌دهند. ما این اثر را در حالت افراطی در یک کارمند گوگل دیدیم که به این باور رسید که یکی از چت‌بات‌های این شرکت دارای احساسات است. توصیف ChatGPT به‌عنوان یک ماشین چرند، حتی اگر ماشینی بسیار تحسین‌شده باشد به کاهش این خطر کمک می‌کند.

سوم، اگر ما عاملیت (Agency) را به برنامه‌ها نسبت دهیم؛ ممکن است وقتی مشکلاتی پیش می‌آید، تقصیر را از گردن کاربران یا برنامه‌نویسان برداریم. اگر آن‌طور که به نظر می‌رسد این نوع فناوری روز‌به‌روز بیشتر در مسائل مهمی مانند مراقبت‌های سلامت استفاده شود؛ بسیار حیاتی است که بدانیم وقتی همه چیز اشتباه پیش می‌رود چه کسی مسئول است.

بنابراین دفعه بعد که دیدید کسی مصنوعات هوش مصنوعی را به‌عنوان «توهم» توصیف می‌کند، بگویید چرند است!

گزارش حاضر در «ویژه‌نامه هوش مصنوعی ساینتیفیک امریکن» منتشر و در «رسانه تخصصی هوش مصنوعی هوشیو» به زبان فارسی نیز ترجمه شده و در دسترس مخاطبان این حوزه قرار گرفته است.

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]