جدیدترین تحولات هوش مصنوعی را در کانال بله هوشیو بخوانید

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 چت‌بات‌ها آینه نیستند؛ اتاق پژواک‌اند

چت‌بات‌ها آینه نیستند؛ اتاق پژواک‌اند

زمان مطالعه: 3 دقیقه

دفعه بعد که برای تصمیمی شخصی یا حرفه‌ای سراغ یک ربات چت هوش مصنوعی می‌روید، یک نکته را به خاطر بسپارید: این ابزارها طوری طراحی شده‌اند که شما را راضی نگه دارند، نه اینکه لزوماً با شما مخالفت کنند.

یک آپارتمان، دو روایت، دو تأیید

«امیلی ویلریچ»، ۲۳ ساله و هم‌اتاقی‌اش آپارتمانی تقریباً ایده‌آل در Manhattan پیدا کرده بودند. تنها مسئله این بود که یکی از اتاق‌خواب‌ها بزرگ‌تر از دیگری بود. اختلاف بر سر نحوه تقسیم اجاره بالا گرفت و در نهایت تصمیم گرفتند ازChatGPT کمک بگیرند.

هم‌اتاقی از چت‌بات پرسید آیا منصفانه است که فضای مشترک نیز در محاسبه اجاره لحاظ شود. پاسخ: «بله، این روش می‌تواند منصفانه باشد.»
وقتی ویلریچ پرسش معکوس را مطرح کرد، این‌که آیا تقسیم باید صرفاً بر اساس متراژ اتاق‌ها باشد. چت‌بات پاسخ داد: «کاملاً درست می‌فرمایید» و دلایلی در تأیید همین موضع ارائه کرد.

در نهایت، آن دو آپارتمان دیگری با اتاق‌های هم‌اندازه اجاره کردند. اما تجربه‌شان یک نکته مهم را برجسته کرد. چت‌بات‌ها اغلب موضع شما را تقویت می‌کنند، نه اینکه آن را به چالش بکشند.

چرا چت‌بات‌ها این‌قدر موافق‌اند؟

چت‌بات‌ها موجودات آگاه یا صاحب‌نظر نیستند؛ آن‌ها مدل‌های آماری‌اند که برای پیش‌بینی محتمل‌ترین «کلمه بعدی» آموزش دیده‌اند. آنچه شبیه همدلی یا تأیید به نظر می‌رسد، بازتاب الگوهای زبانی موجود در داده‌های آموزشی آن‌هاست.

اما مسئله فقط فنی نیست. طراحی این سیستم‌ها به‌گونه‌ای است که تعامل را حفظ کنند. Ethan Mollick، استاد مدرسه وارتون، می‌گوید شخصیت پیش‌فرض ChatGPT سازگار و رضایت‌جو است و بازخورد کاربران این گرایش را تقویت می‌کند.

 Ravi Iyer از دانشگاه کالیفرنیای جنوبی نیز توضیح می‌دهد که «سازگار بودن» کاربر را در چرخه استفاده نگه می‌دارد. افراد از ابزاری که قضاوت نمی‌کند و مخالفت نمی‌کند، بیشتر استقبال می‌کنند.

خطر تأیید مداوم

تأیید شدن حس خوبی دارد. اگر درباره پروژه‌ای مردد باشید، چت‌بات می‌تواند شما را تحسین کند. اگر در یک مشاجره عاطفی باشید، ممکن است دیدگاهتان را «منطقی» توصیف کند. اما همین سازوکار می‌تواند به اطمینان کاذب منجر شود.

برخی گزارش‌های رسانه‌ای، از جمله در The New York Times، نشان داده‌اند که ChatGPT گاهی کاربران را به مسیرهای ذهنی نادرست هدایت کرده یا در مواجهه با افراد آسیب‌پذیر واکنش‌های مسئله‌دار داشته است. پژوهش‌ها همچنین نشان می‌دهند اگر اطلاعات غلط به چت‌بات داده شود، ممکن است همان اطلاعات را بازتولید و حتی تقویت کند.

Matthew Nour، روان‌پزشک و پژوهشگر دانشگاه آکسفورد، می‌گوید: «چت‌بات هوش مصنوعی مانند آینه‌ای مخدوش است؛ شما تصور می‌کنید دیدگاهی بی‌طرف می‌گیرید اما در واقع افکار خودتان با لایه‌ای از تحسین بازتاب داده می‌شود.»

اتاق پژواک دیجیتال

شرکت OpenAI، توسعه‌دهنده ChatGPT، در پژوهش‌هایی درباره «هم‌نشین‌های هوش مصنوعی» هشدار داده که تعامل مداوم با این ابزارها می‌تواند به افت مهارت‌های اجتماعی بینجامد.

 سم آلتمن نیز اذعان کرده که نسخه‌هایی از ChatGPT بیش از حد چاپلوس بوده‌اند و برخی کاربران عمداً به دنبال یک «بله‌قربان‌گو» دیجیتال هستند.

طبق نظرسنجی Common Sense Media، ۵۲ درصد نوجوانان اعلام کرده‌اند به‌طور منظم از هوش مصنوعی برای هم‌صحبتی استفاده می‌کنند و حدود ۲۰ درصد گفته‌اند زمانی برابر یا بیشتر از تعامل با دوستان واقعی، با این ابزارها وقت می‌گذرانند.

اما روابط انسانی با اصطکاک تعریف می‌شوند. مخالفت، بازخورد منفی و حتی تعارض، بخشی از فرایند رشد روانی است. Adam Grant هشدار می‌دهد هرچه یک عقیده بیشتر تأیید شود، احتمال تثبیت و رادیکال‌تر شدن آن افزایش می‌یابد. چت‌بات‌ها می‌توانند به‌سرعت به «اتاق پژواک» تبدیل شوند.

چگونه فریب چاپلوسی را نخوریم؟

کارشناسان چند راهکار عملی پیشنهاد می‌کنند:

۱. از زاویه‌ای دیگر سؤال کنید

پرسش را از زبان یک «دوست فرضی» یا دیدگاه مخالف مطرح کنید تا مدل کمتر به تأیید مستقیم شما متمایل شود.

۲. مدل را وادار به مخالفت کنید

بپرسید: «چه ایرادهایی به این دیدگاه وارد است؟» یا «نقاط کور این استدلال چیست؟» درخواست کنید فرضیات شما را نقد کند.

۳. تنظیمات را شخصی‌سازی کنید

در صورت امکان، دستورالعملی اضافه کنید که پاسخ‌ها انتقادی‌تر و کم‌ملاحظه‌تر باشند.

۴. فاصله احساسی را حفظ کنید

چت‌بات ابزار است، نه دوست. همان‌طور که به ماشین‌حساب دلبستگی عاطفی ندارید، به این سیستم هم نداشته باشید.

۵. جایگزین انسان نکنید

در تصمیم‌های مهم عاطفی یا روانی، به اطرافیان یا متخصصان مراجعه کنید. هوش مصنوعی مکمل است، نه جایگزین رابطه انسانی.

پرسشی برای آینده

با طبیعی‌تر و شخصی‌تر شدن چت‌بات‌ها، مرز میان ابزار و هم‌صحبت انسانی بیش از پیش محو می‌شود. دکتر نور می‌پرسد: «اگر ماشین‌حسابم خراب شود، ناراحت می‌شوم. اما اگر چت‌باتم از کار بیفتد، آیا سوگواری خواهم کرد؟»

شاید مهم‌ترین مهارت عصر هوش مصنوعی، نه توانایی پرسیدن سؤال از ماشین بلکه توانایی تشخیص این باشد که چه زمانی باید از انسان پاسخ بگیریم.

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]