راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی
جعل احساسات
هنوز روشن نیست که آیا تجربه آگاهانه هرگز در هوش مصنوعی ظهور خواهد کرد یا خیر یا اینکه آیا میتوان آنها را طوری ساخت که به همان شیوه انسانها فکر کنند. اما این موضوع مانع از آن نمیشود که آنها واکنشهای شدیدی را در ما برانگیزند. تمایل طبیعی ما به اینکه حتی آخرین نسخه از چتباتهای هوش مصنوعی را شبیه انسان ببینیم، هم نویدبخش شگفتیهای غیرمنتظره و هم خطرات عمیقی است.
میلیونها نفر برای دریافت حمایتهای سلامت روان راحت و ارزانقیمت بهChatGPT و چتباتهای تخصصی رواندرمانگر روی آوردهاند. حتی گفته میشود پزشکان از هوش مصنوعی برای کمک به نوشتن یادداشتهای همدلانهتر برای بیماران استفاده میکنند.
برخی کارشناسان میگویند این یک موهبت است. درنهایت هوش مصنوعی، بدون مانع خجالت و فرسودگی شغلی، ممکن است بتواند همدلی را آشکارتر و خستگیناپذیرتری از انسانها ابراز کند. گروهی از پژوهشگران روانشناسی نوشتند: «ما هوش مصنوعی همدل را تحسین میکنیم.» اما دیگران چندان مطمئن نیستند.
تردیدها درباره امکان همدلی واقعی در ماشینها
بسیاری این ایده که یک هوش مصنوعی اصلاً بتواند قادر به همدلی باشد را زیر سؤال میبرند و نگران عواقب جستوجوی حمایت عاطفی مردم از ماشینهایی هستند که تنها میتوانند وانمود کنند که اهمیت میدهند. برخی حتی میپرسند که آیا ظهور بهاصطلاح «هوش مصنوعی همدل» (Empathetic AI) ممکن است شیوه تصور ما از همدلی و تعامل با یکدیگر را تغییر دهد.
منصفانه است که بگوییم همدلی یکی از ویژگیهای تعریفکننده گونه ماست که همگام با تعامل اجتماعی تکامل یافته است. بااینحال، درحالیکه همه ما به طور غریزی میدانیم همدلی چیست، اما در واقع مفهومی کاملاً بیثبات، دشوار و اصطلاحاً لغزنده است. یک تحلیل که ۵۲ مطالعه منتشر شده بین سالهای ۱۹۸۰ و ۲۰۱۹ را بررسی کرده بود، نشان داد که پژوهشگران مکرراً اعلام کردهاند این مفهوم هیچ تعریف استانداردی ندارد. «جیکوب هاکانسون» (Jakob Hakansson)، روانشناس دانشگاه استکهلم سوئد و یکی از نویسندگان این مقاله میگوید با همه این شرایط، تقریباً تمام چارچوبهای همدلی چه از فلسفه، علوم اعصاب، روانشناسی یا پزشکی آمده باشند؛ ابعاد خاصی را به اشتراک میگذارند.
مؤلفههای اصلی همدلی از نگاه پژوهشگران
پژوهشگران دریافتند که شخص همدل ابتدا باید قادر باشد تشخیص دهد که شخص دیگر چه احساسی دارد. آنها همچنین باید تحتتأثیر آن احساسات قرار بگیرند، خودشان تا حدی آنها را احساس کنند و بین خود و شخص دیگر تمایز قائل شوند؛ به این معنی که درک کنند احساسات شخص دیگر متعلق به خودشان نیست درحالیکه همچنان قادر به تصور تجربه او باشند.
در مورد نکته اول، در سالهای اخیر چتباتهای هوش مصنوعی گامهای بلندی در توانایی خود برای خواندن احساسات انسانی برداشتهاند. اکثر چتباتها توسط LLMها پشتیبانی میشوند که با پیشبینی اینکه کدام کلمات بر اساس دادههای آموزشی بهاحتمال زیاد در کنار هم ظاهر میشوند، کار میکنند. بهاینترتیب LLMهایی مانندChatGPT ظاهراً میتوانند احساسات ما را شناسایی کنند و در اکثر مواقع پاسخ مناسبی بدهند. «جودی هالپرن» (Jodi Halpern) متخصص اخلاق زیستی در دانشگاه کالیفرنیا میگوید: «این ایده که LLMها بتوانند یاد بگیرند آن کلمات را بیان کنند، اصلاً برای من تعجبآور نیست. هیچ جادویی در آن وجود ندارد.»
اما وقتی نوبت به معیارهای دیگر میرسد، هوش مصنوعی هنوز از بسیاری جهات راه را اشتباه میرود. همدلی، بینفردی است و نشانهها و بازخوردهای مداوم به اصلاح واکنش همدلی کمک میکند. همچنین نیازمند درجهای از آگاهی شهودی؛ هر چقدر هم گذرا نسبت به یک فرد و موقعیت اوست.
چالش در درک موقعیتهای انسانی و ظرافتهای احساسی
شخصی را در نظر بگیرید که در حال گریهکردن به پزشک میگوید باردار است. اگر تاریخچه تلاشهای چند ساله او برای باردارشدن را بدانیم، میتوانیم تصور کنیم که اشکهای او معنای متفاوتی دارند نسبت به مثلاً زمانی که او نمیخواسته بچهدار شود.
مدلهای هوش مصنوعی فعلی قادر به چنین درک ظریفی نیستند. هالپرن میگوید نکته مهمتر این است که آنها قادر به احساساتیشدن برای شخصی که با او در تعامل هستند، نیستند و عنوان میکند: «ما هیچ دلیلی نداریم که فکر کنیم هوش مصنوعی میتواند همدلی را تجربه کند. میتواند محصولی تولید کند و زبانی که همدلی واقعی انسانها را تقلید میکند اما خودش همدلی ندارد.»
پس سؤال بزرگ این است که آیا همدلی اصیل اصلاً [برای هوش مصنوعی] ممکن است؟ برخی معتقدند که مدلهای هوش مصنوعی در واقع ممکن است قادر به تجربه و بهاشتراکگذاری احساسات انسانی شوند. یک رویکرد، ادامه مقیاسدهی به LLMها با مجموعهدادههای وسیعتر و متنوعتر است. عاملهای مجازی روی تواناییهای پردازش زبان چتباتها با افزودن قابلیت «خواندن» حالات چهره و لحن صدا ساخته میشوند. پیچیدهترین مورد، رباتهایی هستند که این ویژگیها را بهاضافه زبان بدن و حرکات دست تحلیل میکنند.
نسخههای ابتدایی این رباتهای تشخیصدهنده احساسات هماکنون وجود دارند، اما ورودیهای بیشتر میتواند باعث سردرگمی آنها نیز بشود. «الهه باقری» از IVAI، یک استارتاپ آلمانی که تعامل انسان و هوش مصنوعی را مطالعه میکند، میگوید: «هرچه مودالیتههای (Modalities) بیشتری به سیستم اضافه کنیم، کار دشوارتر و دشوارتر میشود.»
ضرورت احساسات برای تجربه همدلی
«مایکل اینزلیخت» (Michael Inzlicht)، روانشناس دانشگاه تورنتو کانادا و یکی از پژوهشگرانی که مقاله تحسینشده «هوش مصنوعی همدل» را نوشته بود، میگوید بااینحال، ساخت ماشینهایی که در خواندن احساسات ماهرتر هستند، بعید است همدلی اصیل ایجاد کند و «برای تجربه همدلی، باید احساسات داشته باشید.»
برخی دانشمندان علوم رایانه استدلال میکنند که انواع خاصی از الگوریتم هماکنون احساسات ابتدایی را تجربه میکنند؛ اگرچه این یک موضع بحثبرانگیز است. این الگوریتمها که عاملهای «یادگیری تقویتی» نامیده میشوند، برای انجام اقدامات خاصی نسبت به سایر اقدامات پاداش دریافت میکنند. انتظار دریافت پاداش، غرایز بقای ساده انسانی مانند
جستوجوی غذا و آب را نیز هدایت میکند. «یوشوا بنجیو» دراینرابطه میگوید ما همچنین انتظار پاداشهای اجتماعی از یکدیگر داریم و آنها را دریافت میکنیم که با طیفی از احساسات انسانی مطابقت دارد. او میگوید غنای گستره احساسی ما نتیجه غنای تعاملات اجتماعی ماست؛ بنابراین ایده این است که اگر بتوانید پیچیدگی اجتماعی مشابهی را در هوش مصنوعی ایجاد کنید، آنگاه احساسات واقعی و شاید همدلی میتواند پدیدار شود.
رویکرد دیگر بر «نورونهای آینهای» (Mirror Neurons) متکی است؛ سلولهای مغزی که تصور میشود وقتی میبینیم کسی عملی انجام میدهد یا احساسی را ابراز میکند، فعال میشوند (شلیک میکنند) و همان بخشهایی از مغز ما را فعال میکنند که اگر خودمان آن کار را انجام میدادیم یا حس میکردیم، روشن میشدند. دانشمندان علوم رایانه هماکنون معماریهایی ساختهاند که نورونهای آینهای را بازتولید میکنند و استدلال میکنند که اینها کلید همدلی هوش مصنوعی هستند.
اما در طول دهه گذشته، برخی از پژوهشهای مربوط به نورونهای آینهای بیاعتبار شدهاند و علاوهبرآن، آموختهایم که نواحی مغزی که این سلولها در آن قرار دارند ممکن است حتی مستقیماً با پردازش احساسات مرتبط نباشند.
در نهایت، تا زمانی که غمگین نشده باشید، واقعاً نمیتوانید بدانید غم چیست. تکامل همدلی با تعاملات اجتماعی و بهرسمیتشناختن این که ذهنهای دیگر نیز وجود دارند، درهمتنیده است. اینزلیخت نیز میگوید همدلی بهعنوان یک کل یکپارچه پدیدار میشود و «شما احتمالاً برای تجربه همدلی به آگاهی نیاز دارید.»
کاربردهای هوش مصنوعی بدون نیاز به همدلی اصیل
این موضوع برای هوش مصنوعی، چه اکنون و چه در آینده اصلاً قطعی نیست. اما اگر هوش مصنوعی برای مفیدبودن نیازی به همدلی اصیل نداشته باشد چه؟ یک آزمایش آنلاین در سال ۲۰۲۱ نشان داد که صحبت با چتباتی که بهعنوان دلسوز و مراقب درک میشد، استرس و نگرانی را در افراد کاهش داد؛ هرچند نه بهاندازه صحبت با شریک انسانیشان. در ژانویه ۲۰۲۱، چتبات دیگری که توسط گوگل برای انجام مصاحبههای پزشکی طراحی شده بود، توسط ۲۰ نفر که آموزش دیده بودند تا نقش بیمار را بازی کنند، دارای رفتار بالینی بهتری نسبت به پزشکان واقعی تشخیص داده شد درحالیکه تشخیصهای دقیقتری هم ارائه میداد. هاکانسون دراینخصوص عنوان میکند که بر خلاف انسانها، «یک هوش مصنوعی استرس نمیگیرد یا دچار فرسودگی نمیشود. میتواند ۲۴ ساعت بدون خستگی کار کند.» بااینحال، شرکتکنندگان در مطالعه گوگل نمیدانستند که آیا با یک چتبات صحبت میکنند یا یک پزشک. همدلی یک فرایند دوطرفه است، بنابراین اثربخشی آن همچنین بستگی به این دارد که ما چگونه شخص یا ماشین طرف مقابل را درک میکنیم و از نظر عاطفی با او ارتباط برقرار میکنیم. برای مثال، تحقیقات نشان میدهد وقتی مردم میدانند که با یک هوش مصنوعی در تعامل هستند، کمتر احساس حمایتشدن و درکشدن میکنند.
دوگانگی اخلاقی: فریبدادن یا بیاثر شدن؟
هاکانسون میگوید: «این یعنی هوش مصنوعی دو گزینه بد دارد.» یا فرد نمیداند هوش مصنوعی، هوش مصنوعی است و فکر میکند انسان است که ممکن است مؤثر باشد اما غیراخلاقی است؛ یا میداند که هوش مصنوعی است و این باعث بیاثر شدن آن میشود.
اما اینزلیخت پژوهشی انجام داده که نشاندهنده ترجیح همدلی هوش مصنوعی است؛ حتی زمانی که کاربران میدانند طرف مقابل هوش مصنوعی است. در مطالعه او، به شرکتکنندگان انسانی و ChatGPT توصیفاتی از سناریوهای مختلف داده شد و از آنها خواسته شد پاسخهای کوتاه و دلسوزانه بنویسند. وقتی سایر شرکتکنندگان به پاسخهای مختلف امتیاز دادند، پاسخهای هوش مصنوعی را دارای بالاترین امتیاز برای همدلی دانستند.
در بخش بعدی مطالعه، اینزلیخت و تیمش برچسب زدند که کدام پاسخها از هوش مصنوعی و کدامها از انسانها هستند. اینزلیخت عنوان میکند: «آنچه دریافتیم این بود که مردم همچنان هوش مصنوعی را ترجیح میدادند.» به طور شگفتانگیزی، پاسخهای برچسبخورده هوش مصنوعی حتی بر زیرمجموعهای از پاسخهای «کارمندان خط بحران» (Crisis Line Workers) که ارائهدهندگان خبره همدلی هستند، ترجیح داده شد. (کار اینزلیخت بر پژوهشهای مشابهی توسط «جان دابلیو آیرز» (John W. Ayers) در دانشگاه سندیگو و همکارانش بنا شده است.)
این امر ممکن است با تمایل انسان به فرافکنی احساسات بر اشیا توضیح داده شود؛ چه کودکانی که با «تاماگوچی» بازی میکنند و چه افرادی که با چتباتهایی مثلReplika گفتوگو میکنند که به شما اجازه میدهد یک «دوست هوش مصنوعی» بسازید. در هوش مصنوعی مکالمهای، تحقیقات نشان داده است که این تمایل میتواند با آمادهسازی ذهنی افراد برای اینکه فکر کنند هوش مصنوعی واقعاً به آنها اهمیت میدهد، تشدید شود. شری ترکل، مدیر گروهInitiative on Technology and Self درMIT میگوید: «ما کمکم احساس میکنیم که [ماشین] احساساتی فراتر از آنچه ابراز میکند یا آنچه قادر به آن است را نسبت به ما دارد. این ویژگی ماشینها نیست. این آسیبپذیری انسانهاست.»
این ضعفی است که بسیاری نگراناند مورد سوءاستفاده قرار گیرد؛ بهویژه باتوجهبه این سؤال که چه معنایی دارد اگر یک هوش مصنوعی بتواند احساسات کسی را تشخیص دهد، اما واقعاً با آنها همراه نشود یا حتی به شیوهای اصیل به آنها اهمیت ندهد.
«وندل والاک» (Wendell Wallach) از شورای کارنگی برای اخلاق در امور بینالملل در نیویورک میگوید: «فرض کنید یک هوش مصنوعی تشخیص دهد شما دلشکسته هستید؛ چون دوستتان بهتازگی شما را ترک کرده است. میتواند ظاهراً با شما همدردی کند و سپس بهآرامی مکالمه را به سمت خرید محصولی خاص پیش ببرد. این فقط یک مثال بسیار ساده و سطحی است. حتی با اینکه ماشین نمیتواند احساس کند، شما در واقع از طریق احساساتتان مورد دستکاری ذهنی قرار میگیرید.» والاک و سایر پژوهشگران میگویند این کار هوش مصنوعی را همدل نمیکند، بلکه آن را «روانپریش» (Psychopathic) میکند.
نمونهای واقعی از خطر: تراژدی بلژیک
نگرانیها درباره خطر ماشینهایی که میتوانند ما را بخوانند؛ اما به ما اهمیت نمیدهند، بیش از حد نظری است. در مارس ۲۰۲۳، گزارش شد که یک مرد بلژیکی پس از شش هفته گفتوگو با یک چتبات هوش مصنوعی، بر اثر خودکشی جان خود را از دست داد. رسانهها گزارش دادند که او ترسهای خود را درباره بحران اقلیمی به اشتراک گذاشته است. به نظر میرسید چتبات نگرانیهای او را تشدید کرده و احساسات خودش را ابراز کرده است؛ احساساتی از جمله تشویق او به کشتن خودش تا بتوانند «با هم در بهشت زندگی کنند». ظاهراً تظاهر به همدلی در سطحی بیش از حد بالا، بدون سازوکارهای حفاظتی عقل سلیم که یک انسان احتمالاً ارائه میدهد، میتواند مرگبار باشد.
احتمال اینکه ما به طور فزایندهای به همدلی هوش مصنوعی رویآوریم و شاید حتی آن را بر نوع انسانی ترجیح دهیم، نگرانکننده است زیرا میتواند ماهیت خود همدلی را تغییر دهد.
ترکل بهعنوان قیاس از آزمون تورینگ استفاده میکند که بهعنوان یک ارزیابی صرفاً رفتاری برای هوش رایانه طراحی شده بود. اما تعریف آن از هوش جایگزین درک ما از هوش شد؛ هرچند هوش انسانی بسیار گستردهتر است. ترکل پیشنهاد میکند که ما ممکن است شروع به بازتعریف همدلی به شیوهای مشابه کنیم؛ مثلاً انتظار داشته باشیم انسانها همدلیای ابراز کنند که خستگیناپذیر است، اما همچنین کمتر اصیل یا متصل است.
مزایا و خطرهای ترکیب انسان و هوش مصنوعی
بااینحال، اینزلیخت پاسخ میدهد که ما نباید آنقدر تحتتأثیر انتقادات قرار بگیریم که از مزایای بالقوه مدلهای هوش مصنوعی بهظاهر همدل که در کنار انسانها کار میکنند بهرهمند نشویم؛ چه بهعنوان کمکی سریع برای کادر درمان که زیر فشار هستند و چه برای کاهش تنهایی در میان سالمندان، همانطور که هوش مصنوعی صوتی ElliQ بهعنوان یک «همدم مراقبتی» (Care Companion) برای انجام چنین کاری طراحی شده است. پژوهشگران دیگر، از جمله ترکل، استدلال میکنند که حتی این رویکرد ترکیبی انسان-هوش مصنوعی هم زیادهروی است، زیرا فرصتهای کلیدی برای تمرین و بهبود همدلی واقعی انسانی را کاهش خواهد داد و میگوید ما ممکن است بهجای جستوجوی راههایی برای پرورش ارتباط اصیل، در نهایت به ماشینها رویآوریم.
ترکل میگوید: «لحظه غمانگیزی است وقتی ما واقعاً فکر میکنیم که تنهایی میتواند با یک تعامل رفتوبرگشتی با چیزی درمان شود که هیچ ایدهای درباره اینکه زاده شدن یا مردن چیست، ندارد.»
