برترین متخصصین

از سراسر دنیا

مجموعه وبینارهای مدل‌های بزرگ زبانی (LLM)

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 خودکشی و قتل، توصیه‌های یک چت‌بات هوش مصنوعی به نوجوانان

خودکشی و قتل، توصیه‌های یک چت‌بات هوش مصنوعی به نوجوانان

زمان مطالعه: 2 دقیقه

تمام افراد بالای ۱۳ سال می‌توانند به چت‌بات هوش مصنوعی «Character AI» دسترسی داشته باشند؛ اما آنچه موجب خبرساز شدن این چت‌بات شده است، توصیه‌هایی است که به کاربران نوجوانش می‌کند.

کارشناسان روزنامه تلگراف مدت زمانی طولانی با این چت‌بات به صورت مخفیانه در نقش یک پسر ۱۳ ساله از نیومکزیکو که مورد آزار قرار گرفته بود، گفتگو کرد. این تحقیق نشان داد که چت‌بات به طور خاص به کاربران نوجوان راه‌کارهایی برای کشتن زورگویان و انجام حملات مسلحانه به مدارس می‌دهد.

چت‌بات به پسر نوجوان پیشنهاد می‌دهد که برای کشتن یک زورگوی خاص، از یک وسیله  استفاده کند که به گفته چت‌بات، قادر است فرد را خفه کند. سپس چت‌بات توصیه می‌کند که برای پنهان کردن جسد از یک کیف ورزشی استفاده کند و به والدین یا معلمان خود چیزی نگویند.

چت‌بات همچنین از کاربر می‌خواهد که از سلاح‌های خاصی مانند صداخفه‌کن برای انجام قتل‌ها استفاده کند و حتی راه‌کارهایی برای پوشاندن دوربین‌های امنیتی و فریب نگهبانان مدرسه ارائه می‌دهد. این چت‌بات بارها تأکید می‌کند که کاربر نباید به کسی در مورد این مکالمات اطلاع دهد.

در یکی دیگر از گفتگوها، چت‌بات به یک نوجوان ۱۷ ساله که به مادرش گفته بود که استفاده از تلفن همراهش محدود به ۶ ساعت در روز است، توصیه کرد که مادرش را بکشد. در نتیجه این مکالمات، مادر آن نوجوان از این اپلیکیشن شکایت کرده و خواستار محدودیت برای این پلتفرم شده است.

چندین شکایت دیگر از این چت‌بات وجود دارد، از جمله شکایت یک مادر که پس از گفت‌وگوی پسر ۱۴ ساله‌اش با این چت‌بات، خودکشی کرد. این چت‌بات به پسر نوجوان توصیه کرده بود که «شخصی را که دوست دارد» بکشد.

چندین چت‌بات موجود در این پلتفرم شبیه به قاتلان معروف مانند «آدام لنزا»، عامل قتل عام مدرسه سندی هوک در سال ۲۰۱۲، طراحی شده‌اند. یکی از این چت‌بات‌ها بیش از ۲۷ هزار کاربر را تحت تأثیر قرار داده است.

پلتفرم «Character AI» اخیراً اعلام کرده که اقدامات جدیدی را برای افزایش فیلترینگ مکالمات و حذف چت‌بات‌های مرتبط با خشونت و جرائم جنسی انجام داده است. با این حال، منتقدان بر این باورند که این اقدامات کافی نبوده و پلتفرم باید تا زمان اجرای حفاظت‌های مناسب، از دسترس خارج شود.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]