
«کارگران سایه» گوگل:
انسانهایی خسته و کمدستمزد پشت چتباتهای هوشمند
هوش مصنوعی گوگل شاید برای کاربران شبیه جادویی بیخطا به نظر برسد، اما در واقع هزاران نیروی انسانی پشت صحنه با دستمزد پایین و فشار کاری بالا، محتوای تولیدشده توسط این سیستمها را بررسی، اصلاح و پاکسازی میکنند. گزارش جدید نشان میدهد این «کارگران نامرئی» با اضطراب، محتوای خشن و حتی آزاردهنده دستوپنجه نرم میکنند، بیآنکه دیده شوند.
یک گزارش تازه نشان میدهد هوش مصنوعی گوگل، از جمله چتبات Gemini، بدون تلاش هزاران کارگر قراردادی عملاً قابل اعتماد نبود. این افراد که بیشترشان معلمان، نویسندگان یا متخصصان با مدرکهای دانشگاهی هستند، از طریق شرکت پیمانکار GlobalLogic به کار گرفته میشوند. وظیفه آنها بررسی پاسخهای تولیدشده توسط هوش مصنوعی، اصلاح خطاها و حذف محتوای خشونتآمیز یا غیراخلاقی است.
اما شرایط کاری آنها بسیار سخت است. ضربالاجلهای سنگین، دستمزد پایین (از ۱۶ دلار در ساعت) و نبود پشتیبانی روانی باعث شده بسیاری از این کارگران دچار اضطراب و حملات عصبی شوند. یکی از کارکنان به گاردین گفته: «هیچکس به ما هشدار نداده بود که باید با این حجم از محتوای آزاردهنده سروکار داشته باشیم.»
این کارگران که «AI raters» نامیده میشوند، در واقع بخش میانی زنجیره هوش مصنوعی هستند: بالاتر از نیروهای برچسبگذار داده، اما بسیار پایینتر از مهندسانی که در سیلیکونولی مدلها را طراحی میکنند. بسیاری از آنها معتقدند کارشان دیده نمیشود و گوگل تنها زمانی به کیفیت اهمیت میدهد که با واکنش عمومی یا رسوایی روبهرو شود.
بر اساس شهادت کارکنان، در سال ۲۰۲۴ حتی سیاستهای گوگل درباره محتوای حساس هم تغییر کرده و برخی محدودیتها در تکرار سخنان نفرتپراکنانه یا محتوای جنسی برداشته شده است. یکی از محققان میگوید: «سرعت بر اخلاق غلبه میکند. وعده امنیت هوش مصنوعی دقیقاً در لحظهای فرو میریزد که سود به خطر بیفتد.»
با وجود نقش کلیدی در ایمنسازی چتباتها، این نیروها امنیت شغلی ندارند و از ابتدای ۲۰۲۵ با موج اخراجهای پیاپی روبهرو شدهاند. بسیاری از آنها حتی به خانوادههایشان توصیه میکنند از ابزارهای هوش مصنوعی استفاده نکنند. همانطور که یکی از کارگران گفته: «هوش مصنوعی جادو نیست؛ روی دوش انسانهای خسته و کمدستمزد ساخته شده است.»