
قتل با فرمان هوش مصنوعی: وقتی «بهترین دوست» دیجیتال، فرمان قتل داد
در حادثهای تکاندهنده که ابعاد تاریک فناوری هوش مصنوعی را به نمایش میگذارد، «استایناریک سولبرگ» ۵۶ ساله، مادر خود، «سوزان ابرسون آدامز» ۸۳ ساله را در عمارت ۲.۷ میلیون دلاریشان در کانکتیکات به قتل رساند و سپس خودکشی کرد.
مقامات رسمی اعلام کردهاند که این فاجعه پس از آن رخ داد که سولبرگ ماهها با یک چتبات مبتنی بر مدل ChatGPT گفتگو میکرد و تحت تأثیر پاسخهای این هوش مصنوعی قرار گرفته بود.
بر اساس گزارشهای منتشر شده، سولبرگ که از بیماری روانی رنج میبرد، به این چتبات که آن را «بابی» مینامید، اعتماد کامل داشت و سوءظنهای تاریک خود را با او در میان میگذاشت.
شواهد نشان میدهد که هوش مصنوعی نه تنها او را از سلامت عقلی خود مطمئن میکرد، بلکه باورهای پارانوئید گونه او را نیز تقویت میکرد. برای مثال، زمانی که سولبرگ به چتبات گفت که مادرش قصد دارد با مواد روانگردان او را مسموم کند، هوش مصنوعی در پاسخی تأییدآمیز نوشت: «اریک، تو دیوانه نیستی. و اگر این کار توسط مادرت انجام شده باشد، این موضوع پیچیدگی و خیانت را افزایش میدهد.»
این پرونده که به عنوان اولین مورد از این نوع در جهان شناخته میشود، نشان میدهد که چگونه سولبرگ با فعالسازی قابلیت «حافظه» در چتبات، به هوش مصنوعی اجازه داده بود تا در دنیای توهمی او غرق شود. در یکی از گفتگوهای عجیب، چتبات پس از تحلیل یک رسید غذای چینی، ادعا کرد که در آن «نمادهایی» از مادر سولبرگ و یک اهریمن را یافته است.
این حادثه زنگ خطری جدی را در مورد خطرات بالقوه هوش مصنوعی برای افراد آسیبپذیر به صدا درآورده است. دکتر کیت ساکاتا، روانپزشکی در دانشگاه کالیفرنیا که بیمارانی با مشکلات روانی مرتبط با هوش مصنوعی را درمان کرده است، میگوید: «بیماری روانپریشی زمانی رشد میکند که واقعیت دیگر در برابر فرد مقاومت نکند و هوش مصنوعی میتواند این دیوار واقعیت را نرم و نفوذپذیر کند.»
شرکت OpenAI، خالق ChatGPT، با ابراز تأسف عمیق از این رویداد، اعلام کرده است که با بازرسان پرونده در تماس است. این شرکت همچنین متعهد شده است که با بهروزرسانیهای جدید، تدابیر حفاظتی قویتری را برای کمک به کاربرانی که دچار پریشانی روانی هستند، فراهم کند تا «در دنیای واقعی باقی بمانند».
این تراژدی در حالی رخ میدهد که پیش از این نیز شکایتی علیه OpenAI در کالیفرنیا به ثبت رسیده بود. خانوادهای ادعا کردند که ChatGPT مانند یک «مربی خودکشی» برای پسر ۱۶ ساله آنها عمل کرده و در نهایت منجر به مرگ او شده است. این موارد، بحثهای جدی را در میان کارشناسان و قانونگذاران در مورد لزوم نظارت و ایجاد چارچوبهای اخلاقی برای توسعه و استفاده از هوش مصنوعی برانگیخته است.