Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 جعل احساسات

راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی

جعل احساسات

زمان مطالعه: 8 دقیقه

هنوز روشن نیست که آیا تجربه آگاهانه هرگز در هوش مصنوعی ظهور خواهد کرد یا خیر یا اینکه آیا می‌توان آن‌ها را طوری ساخت که به همان شیوه انسان‌ها فکر کنند. اما این موضوع مانع از آن نمی‌شود که آن‌ها واکنش‌های شدیدی را در ما برانگیزند. تمایل طبیعی ما به اینکه حتی آخرین نسخه از چت‌بات‌های هوش مصنوعی را شبیه انسان ببینیم، هم نویدبخش شگفتی‌های غیرمنتظره و هم خطرات عمیقی است.

میلیون‌ها نفر برای دریافت حمایت‌های سلامت روان راحت و ارزان‌قیمت بهChatGPT  و چت‌بات‌های تخصصی روان‌درمانگر روی آورده‌اند. حتی گفته می‌شود پزشکان از هوش مصنوعی برای کمک به نوشتن یادداشت‌های همدلانه‌تر برای بیماران استفاده می‌کنند.

گزارش حاضر در «راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی» منتشر و در «رسانه تخصصی هوش مصنوعی هوشیو» به زبان فارسی نیز ترجمه شده و در دسترس مخاطبان این حوزه قرار گرفته است.

برخی کارشناسان می‌گویند این یک موهبت است. درنهایت هوش مصنوعی، بدون مانع خجالت و فرسودگی شغلی، ممکن است بتواند همدلی را آشکارتر و خستگی‌ناپذیرتری از انسان‌ها ابراز کند. گروهی از پژوهشگران روان‌شناسی نوشتند: «ما هوش مصنوعی همدل را تحسین می‌کنیم.» اما دیگران چندان مطمئن نیستند.

تردیدها درباره امکان همدلی واقعی در ماشین‌ها

بسیاری این ایده که یک هوش مصنوعی اصلاً بتواند قادر به همدلی باشد را زیر سؤال می‌برند و نگران عواقب جست‌وجوی حمایت عاطفی مردم از ماشین‌هایی هستند که تنها می‌توانند وانمود کنند که اهمیت می‌دهند. برخی حتی می‌پرسند که آیا ظهور به‌اصطلاح «هوش مصنوعی همدل» (Empathetic AI) ممکن است شیوه تصور ما از همدلی و تعامل با یکدیگر را تغییر دهد.

منصفانه است که بگوییم همدلی یکی از ویژگی‌های تعریف‌کننده گونه ماست که همگام با تعامل اجتماعی تکامل یافته است. بااین‌حال، درحالی‌که همه ما به طور غریزی می‌دانیم همدلی چیست، اما در واقع مفهومی کاملاً بی‌ثبات، دشوار و اصطلاحاً لغزنده است. یک تحلیل که ۵۲ مطالعه منتشر شده بین سال‌های ۱۹۸۰ و ۲۰۱۹ را بررسی کرده بود، نشان داد که پژوهشگران مکرراً اعلام کرده‌اند این مفهوم هیچ تعریف استانداردی ندارد. «جیکوب هاکانسون» (Jakob Hakansson)، روان‌شناس دانشگاه استکهلم سوئد و یکی از نویسندگان این مقاله می‌گوید با همه این شرایط، تقریباً تمام چارچوب‌های همدلی چه از فلسفه، علوم اعصاب، روان‌شناسی یا پزشکی آمده باشند؛ ابعاد خاصی را به اشتراک می‌گذارند.

مؤلفه‌های اصلی همدلی از نگاه پژوهشگران

پژوهشگران دریافتند که شخص همدل ابتدا باید قادر باشد تشخیص دهد که شخص دیگر چه احساسی دارد. آن‌ها همچنین باید تحت‌تأثیر آن احساسات قرار بگیرند، خودشان تا حدی آن‌ها را احساس کنند و بین خود و شخص دیگر تمایز قائل شوند؛ به این معنی که درک کنند احساسات شخص دیگر متعلق به خودشان نیست درحالی‌که همچنان قادر به تصور تجربه او باشند.

در مورد نکته اول، در سال‌های اخیر چت‌بات‌های هوش مصنوعی گام‌های بلندی در توانایی خود برای خواندن احساسات انسانی برداشته‌اند. اکثر چت‌بات‌ها توسط LLMها پشتیبانی می‌شوند که با پیش‌بینی اینکه کدام کلمات بر اساس داده‌های آموزشی به‌احتمال زیاد در کنار هم ظاهر می‌شوند، کار می‌کنند. به‌این‌ترتیب LLMهایی مانندChatGPT ظاهراً می‌توانند احساسات ما را شناسایی کنند و در اکثر مواقع پاسخ مناسبی بدهند. «جودی هالپرن» (Jodi Halpern) متخصص اخلاق زیستی در دانشگاه کالیفرنیا می‌گوید: «این ایده که LLMها بتوانند یاد بگیرند آن کلمات را بیان کنند، اصلاً برای من تعجب‌آور نیست. هیچ جادویی در آن وجود ندارد.»

اما وقتی نوبت به معیارهای دیگر می‌رسد، هوش مصنوعی هنوز از بسیاری جهات راه را اشتباه می‌رود. همدلی، بین‌فردی است و نشانه‌ها و بازخوردهای مداوم به اصلاح واکنش همدلی کمک می‌کند. همچنین نیازمند درجه‌ای از آگاهی شهودی؛ هر چقدر هم گذرا نسبت به یک فرد و موقعیت اوست.

چالش در درک موقعیت‌های انسانی و ظرافت‌های احساسی

شخصی را در نظر بگیرید که در حال گریه‌کردن به پزشک می‌گوید باردار است. اگر تاریخچه تلاش‌های چند ساله او برای باردارشدن را بدانیم، می‌توانیم تصور کنیم که اشک‌های او معنای متفاوتی دارند نسبت به مثلاً زمانی که او نمی‌خواسته بچه‌دار شود.

مدل‌های هوش مصنوعی فعلی قادر به چنین درک ظریفی نیستند. هالپرن می‌گوید نکته مهم‌تر این است که آن‌ها قادر به احساساتی‌شدن برای شخصی که با او در تعامل هستند، نیستند و عنوان می‌کند: «ما هیچ دلیلی نداریم که فکر کنیم هوش مصنوعی می‌تواند همدلی را تجربه کند. می‌تواند محصولی تولید کند و زبانی که همدلی واقعی انسان‌ها را تقلید می‌کند اما خودش همدلی ندارد.»

پس سؤال بزرگ این است که آیا همدلی اصیل اصلاً [برای هوش مصنوعی] ممکن است؟ برخی معتقدند که مدل‌های هوش مصنوعی در واقع ممکن است قادر به تجربه و به‌اشتراک‌گذاری احساسات انسانی شوند. یک رویکرد، ادامه مقیاس‌دهی به LLMها با مجموعه‌داده‌های وسیع‌تر و متنوع‌تر است. عامل‌های مجازی روی توانایی‌های پردازش زبان چت‌بات‌ها با افزودن قابلیت «خواندن» حالات چهره و لحن صدا ساخته می‌شوند. پیچیده‌ترین مورد، ربات‌هایی هستند که این ویژگی‌ها را به‌اضافه زبان بدن و حرکات دست تحلیل می‌کنند.

نسخه‌های ابتدایی این ربات‌های تشخیص‌دهنده احساسات هم‌اکنون وجود دارند، اما ورودی‌های بیشتر می‌تواند باعث سردرگمی آن‌ها نیز بشود. «الهه باقری» از IVAI، یک استارتاپ آلمانی که تعامل انسان و هوش مصنوعی را مطالعه می‌کند، می‌گوید: «هرچه مودالیته‌های (Modalities) بیشتری به سیستم اضافه کنیم، کار دشوارتر و دشوارتر می‌شود.»

ضرورت احساسات برای تجربه همدلی

«مایکل اینزلیخت» (Michael Inzlicht)، روان‌شناس دانشگاه تورنتو کانادا و یکی از پژوهشگرانی که مقاله تحسین‌شده «هوش مصنوعی همدل» را نوشته بود، می‌گوید بااین‌حال، ساخت ماشین‌هایی که در خواندن احساسات ماهرتر هستند، بعید است همدلی اصیل ایجاد کند و «برای تجربه همدلی، باید احساسات داشته باشید.»

برخی دانشمندان علوم رایانه استدلال می‌کنند که انواع خاصی از الگوریتم هم‌اکنون احساسات ابتدایی را تجربه می‌کنند؛ اگرچه این یک موضع بحث‌برانگیز است. این الگوریتم‌ها که عامل‌های «یادگیری تقویتی» نامیده می‌شوند، برای انجام اقدامات خاصی نسبت به سایر اقدامات پاداش دریافت می‌کنند. انتظار دریافت پاداش، غرایز بقای ساده انسانی مانند

جست‌وجوی غذا و آب را نیز هدایت می‌کند. «یوشوا بنجیو» دراین‌رابطه می‌گوید ما همچنین انتظار پاداش‌های اجتماعی از یکدیگر داریم و آن‌ها را دریافت می‌کنیم که با طیفی از احساسات انسانی مطابقت دارد. او می‌گوید غنای گستره احساسی ما نتیجه غنای تعاملات اجتماعی ماست؛ بنابراین ایده این است که اگر بتوانید پیچیدگی اجتماعی مشابهی را در هوش مصنوعی ایجاد کنید، آنگاه احساسات واقعی و شاید همدلی می‌تواند پدیدار شود.

رویکرد دیگر بر «نورون‌های آینه‌ای» (Mirror Neurons) متکی است؛ سلول‌های مغزی که تصور می‌شود وقتی می‌بینیم کسی عملی انجام می‌دهد یا احساسی را ابراز می‌کند، فعال می‌شوند (شلیک می‌کنند) و همان بخش‌هایی از مغز ما را فعال می‌کنند که اگر خودمان آن کار را انجام می‌دادیم یا حس می‌کردیم، روشن می‌شدند. دانشمندان علوم رایانه هم‌اکنون معماری‌هایی ساخته‌اند که نورون‌های آینه‌ای را بازتولید می‌کنند و استدلال می‌کنند که این‌ها کلید همدلی هوش مصنوعی هستند.

اما در طول دهه گذشته، برخی از پژوهش‌های مربوط به نورون‌های آینه‌ای بی‌اعتبار شده‌اند و علاوه‌برآن، آموخته‌ایم که نواحی مغزی که این سلول‌ها در آن قرار دارند ممکن است حتی مستقیماً با پردازش احساسات مرتبط نباشند.

در نهایت، تا زمانی که غمگین نشده باشید، واقعاً نمی‌توانید بدانید غم چیست. تکامل همدلی با تعاملات اجتماعی و به‌رسمیت‌شناختن این که ذهن‌های دیگر نیز وجود دارند، درهم‌تنیده است. اینزلیخت نیز می‌گوید همدلی به‌عنوان یک کل یکپارچه پدیدار می‌شود و «شما احتمالاً برای تجربه همدلی به آگاهی نیاز دارید.»

کاربردهای هوش مصنوعی بدون نیاز به همدلی اصیل

این موضوع برای هوش مصنوعی، چه اکنون و چه در آینده اصلاً قطعی نیست. اما اگر هوش مصنوعی برای مفیدبودن نیازی به همدلی اصیل نداشته باشد چه؟ یک آزمایش آنلاین در سال ۲۰۲۱ نشان داد که صحبت با چت‌باتی که به‌عنوان دلسوز و مراقب درک می‌شد، استرس و نگرانی را در افراد کاهش داد؛ هرچند نه به‌اندازه صحبت با شریک انسانی‌شان. در ژانویه ۲۰۲۱، چت‌بات دیگری که توسط گوگل برای انجام مصاحبه‌های پزشکی طراحی شده بود، توسط ۲۰ نفر که آموزش دیده بودند تا نقش بیمار را بازی کنند، دارای رفتار بالینی بهتری نسبت به پزشکان واقعی تشخیص داده شد درحالی‌که تشخیص‌های دقیق‌تری هم ارائه می‌داد. هاکانسون دراین‌خصوص عنوان می‌کند که بر خلاف انسان‌ها، «یک هوش مصنوعی استرس نمی‌گیرد یا دچار فرسودگی نمی‌شود. می‌تواند ۲۴ ساعت بدون خستگی کار کند.» بااین‌حال، شرکت‌کنندگان در مطالعه گوگل نمی‌دانستند که آیا با یک چت‌بات صحبت می‌کنند یا یک پزشک. همدلی یک فرایند دوطرفه است، بنابراین اثربخشی آن همچنین بستگی به این دارد که ما چگونه شخص یا ماشین طرف مقابل را درک می‌کنیم و از نظر عاطفی با او ارتباط برقرار می‌کنیم. برای مثال، تحقیقات نشان می‌دهد وقتی مردم می‌دانند که با یک هوش مصنوعی در تعامل هستند، کمتر احساس حمایت‌شدن و درک‌شدن می‌کنند.

دوگانگی اخلاقی: فریب‌دادن یا بی‌اثر شدن؟

هاکانسون می‌گوید: «این یعنی هوش مصنوعی دو گزینه بد دارد.» یا فرد نمی‌داند هوش مصنوعی، هوش مصنوعی است و فکر می‌کند انسان است که ممکن است مؤثر باشد اما غیراخلاقی است؛ یا می‌داند که هوش مصنوعی است و این باعث بی‌اثر شدن آن می‌شود.

اما اینزلیخت پژوهشی انجام داده که نشان‌دهنده ترجیح همدلی هوش مصنوعی است؛ حتی زمانی که کاربران می‌دانند طرف مقابل هوش مصنوعی است. در مطالعه او، به شرکت‌کنندگان انسانی و ChatGPT توصیفاتی از سناریوهای مختلف داده شد و از آن‌ها خواسته شد پاسخ‌های کوتاه و دلسوزانه بنویسند. وقتی سایر شرکت‌کنندگان به پاسخ‌های مختلف امتیاز دادند، پاسخ‌های هوش مصنوعی را دارای بالاترین امتیاز برای همدلی دانستند.

در بخش بعدی مطالعه، اینزلیخت و تیمش برچسب زدند که کدام پاسخ‌ها از هوش مصنوعی و کدام‌ها از انسان‌ها هستند. اینزلیخت عنوان می‌کند: «آنچه دریافتیم این بود که مردم همچنان هوش مصنوعی را ترجیح می‌دادند.» به طور شگفت‌انگیزی، پاسخ‌های برچسب‌خورده هوش مصنوعی حتی بر زیرمجموعه‌ای از پاسخ‌های «کارمندان خط بحران» (Crisis Line Workers) که ارائه‌دهندگان خبره همدلی هستند، ترجیح داده شد. (کار اینزلیخت بر پژوهش‌های مشابهی توسط «جان دابلیو آیرز» (John W. Ayers) در دانشگاه سن‌دیگو و همکارانش بنا شده است.)

این امر ممکن است با تمایل انسان به فرافکنی احساسات بر اشیا توضیح داده شود؛ چه کودکانی که با «تاماگوچی» بازی می‌کنند و چه افرادی که با چت‌بات‌هایی مثلReplika  گفت‌وگو می‌کنند که به شما اجازه می‌دهد یک «دوست هوش مصنوعی» بسازید. در هوش مصنوعی مکالمه‌ای، تحقیقات نشان داده است که این تمایل می‌تواند با آماده‌سازی ذهنی افراد برای اینکه فکر کنند هوش مصنوعی واقعاً به آن‌ها اهمیت می‌دهد، تشدید شود. شری ترکل، مدیر گروهInitiative on Technology and Self  درMIT می‌گوید: «ما کم‌کم احساس می‌کنیم که [ماشین] احساساتی فراتر از آنچه ابراز می‌کند یا آنچه قادر به آن است را نسبت به ما دارد. این ویژگی ماشین‌ها نیست. این آسیب‌پذیری انسان‌هاست.»

این ضعفی است که بسیاری نگران‌اند مورد سوءاستفاده قرار گیرد؛ به‌ویژه باتوجه‌به این سؤال که چه معنایی دارد اگر یک هوش مصنوعی بتواند احساسات کسی را تشخیص دهد، اما واقعاً با آن‌ها همراه نشود یا حتی به شیوه‌ای اصیل به آن‌ها اهمیت ندهد.

«وندل والاک» (Wendell Wallach) از شورای کارنگی برای اخلاق در امور بین‌الملل در نیویورک می‌گوید: «فرض کنید یک هوش مصنوعی تشخیص دهد شما دل‌شکسته هستید؛ چون دوستتان به‌تازگی شما را ترک کرده است. می‌تواند ظاهراً با شما همدردی کند و سپس به‌آرامی مکالمه را به سمت خرید محصولی خاص پیش ببرد. این فقط یک مثال بسیار ساده و سطحی است. حتی با اینکه ماشین نمی‌تواند احساس کند، شما در واقع از طریق احساساتتان مورد دست‌کاری ذهنی قرار می‌گیرید.» والاک و سایر پژوهشگران می‌گویند این کار هوش مصنوعی را همدل نمی‌کند، بلکه آن را «روان‌پریش» (Psychopathic) می‌کند.

نمونه‌ای واقعی از خطر: تراژدی بلژیک

نگرانی‌ها درباره خطر ماشین‌هایی که می‌توانند ما را بخوانند؛ اما به ما اهمیت نمی‌دهند، بیش از حد نظری است. در مارس ۲۰۲۳، گزارش شد که یک مرد بلژیکی پس از شش هفته گفت‌وگو با یک چت‌بات هوش مصنوعی، بر اثر خودکشی جان خود را از دست داد. رسانه‌ها گزارش دادند که او ترس‌های خود را درباره بحران اقلیمی به اشتراک گذاشته است. به نظر می‌رسید چت‌بات نگرانی‌های او را تشدید کرده و احساسات خودش را ابراز کرده است؛ احساساتی از جمله تشویق او به کشتن خودش تا بتوانند «با هم در بهشت زندگی کنند». ظاهراً تظاهر به همدلی در سطحی بیش از حد بالا، بدون سازوکارهای حفاظتی عقل سلیم که یک انسان احتمالاً ارائه می‌دهد، می‌تواند مرگبار باشد.

احتمال اینکه ما به طور فزاینده‌ای به همدلی هوش مصنوعی روی‌آوریم و شاید حتی آن را بر نوع انسانی ترجیح دهیم، نگران‌کننده است زیرا می‌تواند ماهیت خود همدلی را تغییر دهد.

ترکل به‌عنوان قیاس از آزمون تورینگ استفاده می‌کند که به‌عنوان یک ارزیابی صرفاً رفتاری برای هوش رایانه طراحی شده بود. اما تعریف آن از هوش جایگزین درک ما از هوش شد؛ هرچند هوش انسانی بسیار گسترده‌تر است. ترکل پیشنهاد می‌کند که ما ممکن است شروع به بازتعریف همدلی به شیوه‌ای مشابه کنیم؛ مثلاً انتظار داشته باشیم انسان‌ها همدلی‌ای ابراز کنند که خستگی‌ناپذیر است، اما همچنین کمتر اصیل یا متصل است.

مزایا و خطرهای ترکیب انسان و هوش مصنوعی

بااین‌حال، اینزلیخت پاسخ می‌دهد که ما نباید آن‌قدر تحت‌تأثیر انتقادات قرار بگیریم که از مزایای بالقوه مدل‌های هوش مصنوعی به‌ظاهر همدل که در کنار انسان‌ها کار می‌کنند بهره‌مند نشویم؛ چه به‌عنوان کمکی سریع برای کادر درمان که زیر فشار هستند و چه برای کاهش تنهایی در میان سالمندان، همان‌طور که هوش مصنوعی صوتی ElliQ به‌عنوان یک «همدم مراقبتی» (Care Companion) برای انجام چنین کاری طراحی شده است. پژوهشگران دیگر، از جمله ترکل، استدلال می‌کنند که حتی این رویکرد ترکیبی انسان-هوش مصنوعی هم زیاده‌روی است، زیرا فرصت‌های کلیدی برای تمرین و بهبود همدلی واقعی انسانی را کاهش خواهد داد و می‌گوید ما ممکن است به‌جای جست‌وجوی راه‌هایی برای پرورش ارتباط اصیل، در نهایت به ماشین‌ها روی‌آوریم.

ترکل می‌گوید: «لحظه غم‌انگیزی است وقتی ما واقعاً فکر می‌کنیم که تنهایی می‌تواند با یک تعامل رفت‌وبرگشتی با چیزی درمان شود که هیچ ایده‌ای درباره اینکه زاده شدن یا مردن چیست، ندارد.»

گزارش حاضر در «راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی» منتشر و در «رسانه تخصصی هوش مصنوعی هوشیو» به زبان فارسی نیز ترجمه شده و در دسترس مخاطبان این حوزه قرار گرفته است.

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]