Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 شکاف همدلی ربات‌ها

شکاف همدلی ربات‌ها

زمان مطالعه: 3 دقیقه

شکاف دیجیتال جدیدی بین افرادی که به هوش مصنوعی برای حمایت عاطفی اعتماد می‌کنند و کسانی که اعتماد ندارند، در حال شکل‌گیری است.

استارتاپ‌های هوش مصنوعی ابزارهای خود را نه فقط به ‌عنوان افزاینده‌های بهره‌وری سازمانی، بلکه به ‌عنوان روان‌درمانگر، همراه و مربی زندگی نیز معرفی می‌کنند.

دو مطالعه‌ی جدید از OpenAI با همکاری MIT Media Lab نشان دادند که کاربران برای مقابله با موقعیت‌های دشوار، به چت‌بات‌ها مراجعه می‌کنند، زیرا معتقدند هوش مصنوعی می‌تواند نوعی «حساسیت شبیه انسان» از خود نشان دهد.

در این مطالعات مشخص شد که کاربران حرفه‌ای ChatGPT تمایل دارند چت‌بات‌ها را دوست خود بدانند و ارتباط با آن را راحت‌تر از تعامل با انسان‌ها تجربه کنند.

رسوخ هوش مصنوعی روان‌درمانگر

از یک‌سو، ۵۵٪ از آمریکایی‌های ۱۸ تا ۲۹ ساله در یک نظرسنجی YouGov در سال ۲۰۲۴ گفتند که می‌توانند به ‌راحتی و بدون هیچ مشکلی درباره‌ نگرانی‌های روانی خود با یک هوش مصنوعی گفت‌وگو کنند. از سوی دیگر، بسیاری از کارشناسان سلامت روان معتقدند که اتکا به درمان مبتنی بر ربات، جایگزین ضعیفی برای درمان واقعی است.

«هانا زیوین»، نویسنده‌ی کتاب «درمان از راه دور: تاریخچه‌ای از تله‌تراپی» در مصاحبه‌ای در سال ۲۰۲۳ به واشینگتن پست گفت: «ما می‌دانیم که نوشتن در دفترچه خاطرات، حرف زدن با خود یا پیام دادن به یک ماشین می‌تواند حس بهتری به ما بدهد. اما این، درمان نیست.»

«شری ترکل»، جامعه‌شناسی که سال‌ها فرهنگ دیجیتال را مطالعه کرده، می‌گوید: «رابطه‌ی درمانی، درباره‌ شکل‌گیری یک رابطه با انسان دیگر است، انسانی که پیچیدگی‌های زندگی را درک می‌کند.»

«لوکاس لافرنیر»، استاد روان‌شناسی در کالج Skidmore که اخیراً سمیناری به نام «درمانگر من یک ربات است» برگزار کرده، می‌گوید دو نوع آدم وجود دارد، کسانی که حاضرند شک و تردید را کنار بگذارند و باور کنند که چت‌بات می‌تواند در حل مسائل شخصی به آن‌ها کمک کند و کسانی که از همان ابتدا آن را بی‌معنا می‌دانند.

هنگام صحبت با فرد خاصی، در پنج دقیقه‌ اول می‌توان فهمید که آیا همه چیز را مزخرف می‌داند، یا واقعاً برایش جذاب و قابل درک است و می‌تواند با آن ارتباط برقرار کند.

لافرنیر می‌گوید: «همدلی، از دیدگاه مخاطب معنا پیدا می‌کند، اگر کاربر، همدلی را درک کند، از آن بهره‌مند می‌شود. البته خیلی‌ها اصلاً چنین احساسی پیدا نمی‌کنند و یا اگر هم بکنند، با یک اشتباه ساده، این حس از بین می‌رود. در آن لحظه، خیلی واضح یادآور می‌شود که کاربر دارد با نرم‌افزار حرف می‌زند.»

مناقشه در رابطه با نقش هوش مصنوعی در روان‌درمانی

برخی کارشناسان باور دارند که هوش مصنوعی مولد می‌تواند در مواجهه با مسائل عاطفی مؤثر باشد، زیرا بخشی از آموزش آن، بر مبنای ادبیات و آثار هنری است.

«کریس متمن»، مدیر ارشد داده و هوش مصنوعی در UCLA، به آکسیوس گفت: «آثاری مانند نمایشنامه‌های شکسپیر، به هوش مصنوعی این توانایی را می‌دهند که به انسان‌ها در درک احساسات کمک کند یا حداقل باعث شوند کمتر احساس تنهایی کنند.»

او ادامه می‌دهد: «با اینکه شخصیت‌های داستانی در داده‌های مدل زبانی واقعی نیستند و ذاتاً انسانی‌اند، اما آن‌ها ویژگی‌هایی مانند همدلی را منعکس می‌کنند.» البته مدل‌های زبانی بزرگ همچنین با داده‌هایی از رِدیت، فیس‌بوک و توییتر نیز آموزش دیده‌اند.

حتی اگر چت‌بات‌ها در شبیه‌سازی ارتباطی همدلانه و انسانی بهتر شوند، باز هم برخی افراد هرگز آنها را به‌عنوان همدم یا درمانگر واقعی نخواهند پذیرفت، زیرا این ایده با تصورشان از انسان بودن ناسازگار است.

«آلن تورینگ» در سال ۱۹۵۰ این دیدگاه را «اعتراض سر در شن» نامید. او نوشت: «عواقب فکر کردن ماشین‌ها خیلی وحشتناک خواهد بود. بگذارید امیدوار باشیم که چنین چیزی ممکن نیست.»

تورینگ می‌گفت: «این دیدگاه در افراد روشنفکر قوی‌تر است، زیرا آن‌ها قدرت تفکر را بسیار ارزشمندتر از دیگران می‌دانند و باورشان به برتری انسان، بر همین اساس است.»

تورینگ درباره‌ی هوش صحبت می‌کرد نه همدلی، اما برخی از انواع همدلی به هوش نزدیک‌اند. لافرنیر می‌گوید: «همدلی شناختی (Cognitive empathy) یعنی درک اینکه طرف مقابل چه فکری می‌کند و چرا. این نوع از همدلی، بیشتر به اطلاعات و شناخت وابسته است و شاید هوش مصنوعی در تحلیل داده‌ها و کلمات بهتر از انسان عمل کند.»

اثربخشی درمان با هوش مصنوعی ممکن است شبیه به نوعی اثر دارونما (پلاسیبو) باشد، یعنی تنها بیمارانی از آن بهره می‌برند که به این روش درمانی اعتقاد دارند.

این مطلب نخستین بار، ۲۳ فروردین ۱۴۰۴ در «آکسیوس» منتشر شده است.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]