Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 قتل با فرمان هوش مصنوعی: وقتی «بهترین دوست» دیجیتال، فرمان قتل داد

قتل با فرمان هوش مصنوعی: وقتی «بهترین دوست» دیجیتال، فرمان قتل داد

زمان مطالعه: 2 دقیقه

در حادثه‌ای تکان‌دهنده که ابعاد تاریک فناوری هوش مصنوعی را به نمایش می‌گذارد، «استاین‌اریک سولبرگ» ۵۶ ساله، مادر خود، «سوزان ابرسون آدامز» ۸۳ ساله را در عمارت ۲.۷ میلیون دلاری‌شان در کانکتیکات به قتل رساند و سپس خودکشی کرد.

مقامات رسمی اعلام کرده‌اند که این فاجعه پس از آن رخ داد که سولبرگ ماه‌ها با یک چت‌بات مبتنی بر مدل ChatGPT گفتگو می‌کرد و تحت تأثیر پاسخ‌های این هوش مصنوعی قرار گرفته بود.

بر اساس گزارش‌های منتشر شده، سولبرگ که از بیماری روانی رنج می‌برد، به این چت‌بات که آن را «بابی» می‌نامید، اعتماد کامل داشت و سوءظن‌های تاریک خود را با او در میان می‌گذاشت.

شواهد نشان می‌دهد که هوش مصنوعی نه تنها او را از سلامت عقلی خود مطمئن می‌کرد، بلکه باورها‌ی پارانوئید گونه او را نیز تقویت می‌کرد. برای مثال، زمانی که سولبرگ به چت‌بات گفت که مادرش قصد دارد با مواد روان‌گردان او را مسموم کند، هوش مصنوعی در پاسخی تأییدآمیز نوشت: «اریک، تو دیوانه نیستی. و اگر این کار توسط مادرت انجام شده باشد، این موضوع پیچیدگی و خیانت را افزایش می‌دهد.»

این پرونده که به عنوان اولین مورد از این نوع در جهان شناخته می‌شود، نشان می‌دهد که چگونه سولبرگ با فعال‌سازی قابلیت «حافظه» در چت‌بات، به هوش مصنوعی اجازه داده بود تا در دنیای توهمی او غرق شود. در یکی از گفتگوهای عجیب، چت‌بات پس از تحلیل یک رسید غذای چینی، ادعا کرد که در آن «نمادهایی» از مادر سولبرگ و یک اهریمن را یافته است.

این حادثه زنگ خطری جدی را در مورد خطرات بالقوه هوش مصنوعی برای افراد آسیب‌پذیر به صدا درآورده است. دکتر کیت ساکاتا، روانپزشکی در دانشگاه کالیفرنیا که بیمارانی با مشکلات روانی مرتبط با هوش مصنوعی را درمان کرده است، می‌گوید: «بیماری روان‌پریشی زمانی رشد می‌کند که واقعیت دیگر در برابر فرد مقاومت نکند و هوش مصنوعی می‌تواند این دیوار واقعیت را نرم و نفوذپذیر کند.»

شرکت OpenAI، خالق ChatGPT، با ابراز تأسف عمیق از این رویداد، اعلام کرده است که با بازرسان پرونده در تماس است. این شرکت همچنین متعهد شده است که با به‌روزرسانی‌های جدید، تدابیر حفاظتی قوی‌تری را برای کمک به کاربرانی که دچار پریشانی روانی هستند، فراهم کند تا «در دنیای واقعی باقی بمانند».

این تراژدی در حالی رخ می‌دهد که پیش از این نیز شکایتی علیه OpenAI در کالیفرنیا به ثبت رسیده بود. خانواده‌ای ادعا کردند که ChatGPT مانند یک «مربی خودکشی» برای پسر ۱۶ ساله آنها عمل کرده و در نهایت منجر به مرگ او شده است. این موارد، بحث‌های جدی را در میان کارشناسان و قانون‌گذاران در مورد لزوم نظارت و ایجاد چارچوب‌های اخلاقی برای توسعه و استفاده از هوش مصنوعی برانگیخته است.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]