عصر کودکآزاری هوش مصنوعی فرا رسیده است
استفاده از رباتها مبتنی بر هوش مصنوعی به عنوان دوست و همدم یکی از کاربردهایی است که به تازگی بسیار فراگیر شده. سناریویی آشنا که سال 2013 در فیلم «Her» آن را دیدهایم.
Muah.AI وبسایتی است که در آن افراد میتوانند دوست هوش مصنوعی بسازند، چتباتهایی که از طریق متن یا صدا با کاربران خود صحبت میکنند و تصاویر خود را بر اساس آنچه از آنها درخواست میشود، ارسال میکنند. نزدیک به دو میلیون کاربر برای این سرویس ثبتنام کردهاند که برنامهنویسان آن، فناوری آن را «بدون سانسور» توصیف میکنند.
با این حال بر اساس دادههایی که ظاهراً از سایتها برداشته شده است، ممکن است افراد از ابزارهای آن در راستای تولید محتوای سوءاستفاده جنسی از کودکان یا CSAM استفاده کنند.
هفته گذشته، «جوزف کاکس»، در 404 Media، اولین کسی بود که در مورد مجموعه این دادهها گزارش داد؛ این گزارش پس از اینکه یک هکر ناشناس آنها را به دست آورد منتشر شد.
آنچه کاکس دریافت کرد عمیقاً آزاردهنده بود؛ او یک درخواست را بررسی کرد که شامل کلماتی از جمله «نوزادان تازه متولد شده» و «بچههای خردسال» بود.
این نشان میدهد که کاربری از Muah.AI خواسته است تا به چنین سناریوهایی پاسخ دهد، اگرچه مشخص نیست که آیا برنامه چنین کاری را انجام داده است یا خیر. پلتفرمهای اصلی هوش مصنوعی، از جمله ChatGPT، از فیلترها و سایر ابزارهای تعدیلکننده استفاده میکنند که برای جلوگیری از تولید محتوا در پاسخ به چنین درخواستهایی طراحی شدهاند، اما سرویسهای کمتر برجسته معمولاً فیلترهای کمتری دارند.
کاربران از نرمافزار هوش مصنوعی برای تولید تصاویر استثمار جنسی از افراد واقعی استفاده کردهاند. اوایل امسال، دیپفیکهای پورنوگرافیک «تیلور سویفت» در X و فیسبوک منتشر شد و حامیان کودکان، بارها هشدار دادهاند که هوش مصنوعی مولد اکنون به طور گسترده برای ایجاد تصاویر سوءاستفاده جنسی از کودکان واقعی استفاده میشود، مشکلی که در مدارس سراسر کشور ظاهر شده است. هک Muah.AI یکی از واضحترین و عمومیترین مصادیق این موضوع است.
«تروی هانت»، مشاور امنیتی معروف و خالق سایت ردیابی نفوذ اطلاعات HaveIBeenPwned.com، دادههای Muah.AI را توسط یک منبع ناشناس دریافت کرده بود؛ او در بررسی دادهها، نمونههای زیادی از کاربرانی را پیدا کرد که از برنامه برای دریافت محتوای آزار جنسی کودکان استفاده میکردند.
هنگامی که او کلمه نوجوان ۱۳ ساله را در بین دادهها، جستوجو کرد، بیش از ۳۰ هزار نتیجه دریافت کرد، بسیاری از پیامهایی که همراه با کلمه نوجوان ۱۳ ساله نوشته شده بودند، اعمال جنسی را توصیف میکردند.
وقتی او کلمه پیش از بلوغ را در میان دادهها جستوجو کرد، ۲۶ هزار نتیجه گرفت. او تخمین میزند که دهها هزار، اگر نه صدها هزار، درخواست برای ایجاد CSAM در مجموعهدادههای این چتبات هوش مصنوعی وجود دارد.
هانت با تعجب متوجه شد که برخی از کاربران Muah.AI حتی سعی نکردند هویت خود را پنهان کنند؛ در یک مورد، او آدرس ایمیل مربوط به کاربر را با نمایه لینکدین متعلق به یکی از مدیران C-suite در یک شرکت تطبیق داد.
هانت گفت: «من به آدرس ایمیل او نگاه کردم و فهمیدم که به شکل باورنکردنی حتی نام خانوادگی این کاربر در ایمیل او استفاده شده است. موارد زیادی وجود دارد که افراد تلاش میکنند، هویت خود را مخدوش کنند، اما اگر بتوانید راه درست را بروید، متوجه خواهید شد که آنها چه کسانی هستند. اما این مرد حتی تلاشی هم برای پنهانکردن هویت خود نکرده است.»
هانت گفت که CSAM معمولاً در بخشهای سیاه اینترنت پیدا میشود، اما این واقعیت که این محتوا در یک وبسایت اصلی قرار دارد، موضوعی است که همه را متعجب خواهد کرد.
با این حال گفتوگو با مؤسسان Muah.AI و پرسیدن در خصوص تخمینهای تعداد محتواهای سوءاستفاده جنسی نتیجهای نداشته است؛ او در خصوص تخمینها گفت: «این غیرممکن است. چطور ممکن است؟ در مورد آن فکر کنید. ما ۲ میلیون کاربر داریم. هیچ راهی وجود ندارد که ۵ درصد آنها پدوفیل باشند. اما این امکان وجود دارد که تعداد نسبتاً کمی از کاربران مسئول تعداد زیادی درخواست باشند.»
وقتی از او پرسیدم که آیا اطلاعاتی که هانت دارد واقعی است، ابتدا گفت: «شاید این امکان وجود داشته باشد. من انکار نمیکنم. اما بعداً در همان گفتگو گفت که مطمئن نیستم.»