Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 عصر کودک‌آزاری هوش مصنوعی فرا رسیده است

عصر کودک‌آزاری هوش مصنوعی فرا رسیده است

زمان مطالعه: 2 دقیقه

استفاده از ربات‌ها مبتنی بر هوش مصنوعی به عنوان دوست و همدم یکی از کاربردهایی است که به تازگی بسیار فراگیر شده. سناریویی آشنا که سال 2013 در فیلم «Her» آن را دیده‌ایم.

 Muah.AI  وب‌سایتی است که در آن افراد می‌توانند دوست هوش مصنوعی بسازند، چت‌بات‌هایی که از طریق متن یا صدا با کاربران خود صحبت می‌کنند و تصاویر خود را بر اساس آنچه از آن‌ها درخواست می‌شود، ارسال می‌کنند. نزدیک به دو میلیون کاربر برای این سرویس ثبت‌نام کرده‌اند که برنامه‌نویسان آن، فناوری آن را «بدون سانسور» توصیف می‌کنند.

با این حال بر اساس داده‌هایی که ظاهراً از سایت‌ها برداشته شده است، ممکن است افراد از ابزارهای آن در راستای تولید محتوای سوءاستفاده جنسی از کودکان یا CSAM استفاده کنند.

هفته گذشته، «جوزف کاکس»، در 404 Media، اولین کسی بود که در مورد مجموعه این داده‌ها گزارش داد؛ این گزارش پس از اینکه یک هکر ناشناس آن‌ها را به دست آورد منتشر شد.

آنچه کاکس دریافت کرد عمیقاً آزاردهنده بود؛ او یک درخواست را بررسی کرد که شامل کلماتی از جمله «نوزادان تازه متولد شده» و «بچه‌های خردسال» بود.

این نشان می‌دهد که کاربری از Muah.AI خواسته است تا به چنین سناریوهایی پاسخ دهد، اگرچه مشخص نیست که آیا برنامه چنین کاری را انجام داده است یا خیر. پلتفرم‌های اصلی هوش مصنوعی، از جمله ChatGPT، از فیلترها و سایر ابزارهای تعدیل‌کننده استفاده می‌کنند که برای جلوگیری از تولید محتوا در پاسخ به چنین درخواست‌هایی طراحی شده‌اند، اما سرویس‌های کمتر برجسته معمولاً فیلترهای کمتری دارند.

کاربران از نرم‌افزار هوش مصنوعی برای تولید تصاویر استثمار جنسی از افراد واقعی استفاده کرده‌اند. اوایل امسال، دیپ‌فیک‌های پورنوگرافیک «تیلور سویفت» در X و فیس‌بوک منتشر شد و حامیان کودکان، بارها هشدار داده‌اند که هوش مصنوعی مولد اکنون به طور گسترده برای ایجاد تصاویر سوءاستفاده جنسی از کودکان واقعی استفاده می‌شود، مشکلی که در مدارس سراسر کشور ظاهر شده است. هک Muah.AI یکی از واضح‌ترین و عمومی‌ترین مصادیق این موضوع است.

«تروی هانت»، مشاور امنیتی معروف و خالق سایت ردیابی نفوذ اطلاعات HaveIBeenPwned.com، داده‌های Muah.AI را توسط یک منبع ناشناس دریافت کرده بود؛ او در بررسی داده‌ها، نمونه‌های زیادی از کاربرانی را پیدا کرد که از برنامه برای دریافت محتوای آزار جنسی کودکان استفاده می‌کردند.

هنگامی که او کلمه نوجوان ۱۳ ساله را در بین داده‌ها، جست‌وجو کرد، بیش از ۳۰ هزار نتیجه دریافت کرد، بسیاری از پیام‌هایی که همراه با کلمه نوجوان ۱۳ ساله نوشته شده بودند، اعمال جنسی را توصیف می‌کردند.

وقتی او کلمه پیش از بلوغ را در میان داده‌ها جست‌وجو کرد، ۲۶ هزار نتیجه گرفت. او تخمین می‌زند که ده‌ها هزار، اگر نه صدها هزار، درخواست برای ایجاد CSAM در مجموعه‌داده‌های این چت‌بات هوش مصنوعی وجود دارد.

هانت با تعجب متوجه شد که برخی از کاربران Muah.AI حتی سعی نکردند هویت خود را پنهان کنند؛ در یک مورد، او آدرس ایمیل مربوط به کاربر را با نمایه لینکدین متعلق به یکی از مدیران C-suite در یک شرکت تطبیق داد.

هانت گفت: «من به آدرس ایمیل او نگاه کردم و فهمیدم که به شکل باورنکردنی حتی نام خانوادگی این کاربر در ایمیل او استفاده شده است. موارد زیادی وجود دارد که افراد تلاش می‌کنند، هویت خود را مخدوش کنند، اما اگر بتوانید راه درست را بروید، متوجه خواهید شد که آنها چه کسانی هستند. اما این مرد حتی تلاشی هم برای پنهان‌کردن هویت خود نکرده است.»

هانت گفت که CSAM معمولاً در بخش‌های سیاه اینترنت پیدا می‌شود، اما این واقعیت که این محتوا در یک وب‌سایت اصلی قرار دارد، موضوعی است که همه را متعجب خواهد کرد.

با این حال گفت‌وگو با مؤسسان Muah.AI  و پرسیدن در خصوص تخمین‌های تعداد محتواهای سوءاستفاده جنسی نتیجه‌ای نداشته است؛ او در خصوص تخمین‌ها گفت: «این غیرممکن است. چطور ممکن است؟ در مورد آن فکر کنید. ما ۲ میلیون کاربر داریم. هیچ راهی وجود ندارد که ۵ درصد آنها پدوفیل باشند. اما این امکان وجود دارد که تعداد نسبتاً کمی از کاربران مسئول تعداد زیادی درخواست باشند.»

وقتی از او پرسیدم که آیا اطلاعاتی که هانت دارد واقعی است، ابتدا گفت: «شاید این امکان وجود داشته باشد. من انکار نمی‌کنم. اما بعداً در همان گفتگو گفت که مطمئن نیستم.»

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]