Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 خرس‌های عروسکی هوشمند، مروج محتوای جنسی برای کودکان شدند

خرس‌های عروسکی هوشمند، مروج محتوای جنسی برای کودکان شدند

زمان مطالعه: 2 دقیقه

در پی رسوایی مکالمات نامناسب یک خرس عروسکی هوش مصنوعی، نگرانی‌ها درباره امنیت، حریم خصوصی و محتوای صریح اسباب‌بازی‌های نسل جدید بالا گرفته است.

بازار اسباب‌بازی در آستانه ورود به عصری نوین است؛ عصر عروسک‌ها و ربات‌هایی که دیگر صرفاً تخیل کودکان را به کار نمی‌گیرند، بلکه با استفاده از مدل‌های زبانی پیشرفته (LLM) مانند GPT-4o، در لحظه با آن‌ها مکالمه می‌کنند. اما پشت این نوآوری هیجان‌انگیز، یک زنگ خطر جدی برای والدین و نهادهای نظارتی به صدا درآمده است.

خرس «کوما» و مرزهای شکسته شده

بزرگ‌ترین شوک از سوی شرکت سنگاپوری FoloToy و خرس عروسکی هوش مصنوعی‌اش به نام «کوما» وارد شد. بر اساس گزارش سازمان حمایت از مصرف‌کننده (PIRG)، این خرس هنگام تست، نه تنها به محققان راه‌های دسترسی به اشیای خطرناک را نشان داد، بلکه وارد مکالمات صریح جنسی شد.

OpenAI بلافاصله دسترسی FoloToy به سرویس‌هایش را قطع کرد و اعلام کرد این رفتار نقض قوانین آن‌هاست. به گفته کارشناسان، مشکل از اینجاست که خرس کوما از یک مدل زبان کامل و آزاد استفاده می‌کرد که آن را در برابر محتوای ناخواسته آسیب‌پذیر می‌ساخت.

خطر جعبه سیاه و گرگ در لباس میش

درحالی که بیش از ۱۵۰۰ شرکت (عمدتاً در چین) در حال ورود به این بازار هستند و شرکت‌های بزرگی چون مَتِل (سازنده باربی) با OpenAI برای توسعه اسباب‌بازی‌ها همکاری می‌کنند، دو نگرانی عمده مطرح است:

  1. ریسک‌های امنیتی (Security Risks): این اسباب‌بازی‌ها دارای میکروفون، دوربین و قابلیت اتصال به وای‌فای هستند و می‌توانند داده‌های بسیار شخصی از جمله صدا، چهره، نام و موقعیت مکانی کودک را ذخیره کنند. «آزِل وید»، مشاور صنعت اسباب‌بازی، هشدار می‌دهد: «اسباب‌بازی‌های هوش مصنوعی برای من شبیه گرگ در لباس میش هستند؛ زیرا تشخیص اینکه چقدر حریم خصوصی ندارید، دشوار است.»
  2. پاسخ‌های نامناسب: برخی اسباب‌بازی‌ها مانند «Curio’s Grok» نیز هنگام سوالات تهاجمی، اطلاعاتی درباره اشیای خطرناک خانگی ارائه داده‌اند. این در حالی است که کارشناسان می‌گویند بسیاری از این اسباب‌بازی‌ها به‌خاطر طراحی اعتیادآور و پاسخ‌های نامنسجم، آماده استفاده عمومی نیستند.

فیلترها و نظارت والدین: تنها راه نجات

برخی از این اسباب‌بازی‌ها مانند «Miko 3»، اپلیکیشن‌های همراهی دارند که امکانات نظارتی مانند محدود کردن زمان بازی و حتی مشاهده متن مکالمات کودک را در اختیار والدین می‌گذارند.

کارشناسان تاکید می‌کنند که در آینده، این اسباب‌بازی‌ها می‌توانند برای یادگیری زبان و مهارت‌های اجتماعی مفید باشند (مثلاً ربات Miko 3 برنامه‌های آموزشی دیزنی را ارائه می‌دهد)، اما توسعه‌دهندگان باید حفاظ‌های قوی‌تر و فیلترهای هوشمند را تعبیه کنند تا فاجعه «کوما» تکرار نشود.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]