Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 انسان‌هایی خسته و کم‌دستمزد پشت چت‌بات‌های هوشمند

«کارگران سایه» گوگل:

انسان‌هایی خسته و کم‌دستمزد پشت چت‌بات‌های هوشمند

زمان مطالعه: < 1 دقیقه

هوش مصنوعی گوگل شاید برای کاربران شبیه جادویی بی‌خطا به نظر برسد، اما در واقع هزاران نیروی انسانی پشت صحنه با دستمزد پایین و فشار کاری بالا، محتوای تولیدشده توسط این سیستم‌ها را بررسی، اصلاح و پاک‌سازی می‌کنند. گزارش جدید نشان می‌دهد این «کارگران نامرئی» با اضطراب، محتوای خشن و حتی آزاردهنده دست‌وپنجه نرم می‌کنند، بی‌آنکه دیده شوند.

یک گزارش تازه نشان می‌دهد هوش مصنوعی گوگل، از جمله چت‌بات Gemini، بدون تلاش هزاران کارگر قراردادی عملاً قابل اعتماد نبود. این افراد که بیشترشان معلمان، نویسندگان یا متخصصان با مدرک‌های دانشگاهی هستند، از طریق شرکت پیمانکار GlobalLogic به کار گرفته می‌شوند. وظیفه آن‌ها بررسی پاسخ‌های تولیدشده توسط هوش مصنوعی، اصلاح خطاها و حذف محتوای خشونت‌آمیز یا غیراخلاقی است.

اما شرایط کاری آن‌ها بسیار سخت است. ضرب‌الاجل‌های سنگین، دستمزد پایین (از ۱۶ دلار در ساعت) و نبود پشتیبانی روانی باعث شده بسیاری از این کارگران دچار اضطراب و حملات عصبی شوند. یکی از کارکنان به گاردین گفته: «هیچ‌کس به ما هشدار نداده بود که باید با این حجم از محتوای آزاردهنده سروکار داشته باشیم.»

این کارگران که «AI raters» نامیده می‌شوند، در واقع بخش میانی زنجیره هوش مصنوعی هستند: بالاتر از نیروهای برچسب‌گذار داده، اما بسیار پایین‌تر از مهندسانی که در سیلیکون‌ولی مدل‌ها را طراحی می‌کنند. بسیاری از آن‌ها معتقدند کارشان دیده نمی‌شود و گوگل تنها زمانی به کیفیت اهمیت می‌دهد که با واکنش عمومی یا رسوایی روبه‌رو شود.

بر اساس شهادت کارکنان، در سال ۲۰۲۴ حتی سیاست‌های گوگل درباره محتوای حساس هم تغییر کرده و برخی محدودیت‌ها در تکرار سخنان نفرت‌پراکنانه یا محتوای جنسی برداشته شده است. یکی از محققان می‌گوید: «سرعت بر اخلاق غلبه می‌کند. وعده امنیت هوش مصنوعی دقیقاً در لحظه‌ای فرو می‌ریزد که سود به خطر بیفتد.»

با وجود نقش کلیدی در ایمن‌سازی چت‌بات‌ها، این نیروها امنیت شغلی ندارند و از ابتدای ۲۰۲۵ با موج اخراج‌های پیاپی روبه‌رو شده‌اند. بسیاری از آن‌ها حتی به خانواده‌هایشان توصیه می‌کنند از ابزارهای هوش مصنوعی استفاده نکنند. همان‌طور که یکی از کارگران گفته: «هوش مصنوعی جادو نیست؛ روی دوش انسان‌های خسته و کم‌دستمزد ساخته شده است.»

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]