ردیابی الگوریتمی نیوری کار
کاربردهای هوش مصنوعی

ردیابی الگوریتمی به سلامت روان نیروهای کار بریتانیایی آسیب می‌رساند

    0
    مدت زمان مطالعه: ۳ دقیقه

    طبق گزارش نمایندگان مجلس و صاحب منصبان، نظارت بر عملکرد کارکنان با استفاده از هوش مصنوعی، باید قانونمند شود، به گفته‌ گروهی از نمایندگان مجلس و صاحب‌منصبان، نظارت بر کارکنان و هدف‌گذاری عملکرد آنان با استفاده از الگوریتم، به سلامت روانی کارکنان آسیب می‌رساند و باید با وضع قوانین جدید، کنترل شود.

    قانون پاسخگویی در قبال عمل الگوریتم‌ها

    گروه پارلمانی همه احزاب (APPG) در گزارش خود درباره آینده مشاغل، بیان کرده است: «قانون پاسخگویی در قبال عمل الگوریتم‌ها، شرکت‌ها را ملزم می‌کند که اثرات سیستم‌های مبتنی‌ بر‌ عملکرد خود از جمله، نظارت بر صندوقداران سوپرمارکت‌ها یا ارائه‌ دستورالعمل‌هایی به پیک‌ها مبنی بر تحویل تعداد مشخصی بسته در هر ساعت را ارزیابی کنند. فناوری‌های نظارت و هدف‌گذاری فراگیر، اثر منفی بارزی بر سلامت روانی و جسمی کارکنان دارند؛ زیرا آنان را تحت‌فشار مفرط مدیریت ذره‌بینی لحظه‌به‌لحظه، مستمر و ارزشیابی خودکار قرار می‌دهند.»

    الگوریتم ردیابی کارکنان

    به پیشنهاد اعضای پارلمان، قانون جدیدی برای پاسخگویی الگوریتم‌ها باید تصویب شود که هوش مصنوعی را ملزم کند «انسان‌ها را در اولویت قرار دهد.» همچنین هشدار داده شده است که «استفاده از فناوری‌های الگوریتمی نظارت و مدیریت که نقش‌های مشاوره‌ای نوین و نقش‌های سنتی را بر عهده گرفته‌اند، در دوران همه‌گیری کرونا، به مقدار قابل‌توجهی افزایش پیدا کرده است.»

    مطابق این قانون، کارگران در طراحی و کاربرد سیستم‌های الگوریتمی مشارکت خواهند داشت؛ این سیستم‌ها در خصوص جنبه‌های بنیادی شغل افراد، از جمله تخصیص شیفت‌های کاری، پرداخت و حتی استخدام، تصمیماتی اتخاذ و اجرایی می‌کند.

    همچنین در این گزارش پیشنهاد شده است که شرکت‌ها و کارفرمایان بخش دولتی، با هدف رفع هر گونه مشکل ناشی از سیستم‌ها، الگوریتم‌ها را ارزیابی کنند و مرکز جدیدی را برای تنظیم مقررات دیجیتال به نام «انجمن همکاری مقررات دیجیتال»، توسعه دهند و در آنجا گواهی‌نامه‌ها و دستورالعمل‌هایی را برای استفاده از هوش مصنوعی و الگوریتم در مشاغل، معرفی کنند.

    نتیجه‌ استفاده از هوش مصنوعی و الگوریتم ها بر کارکنان

    نمایندگان مجلس اضافه می‌کنند: «در نتیجه‌ استفاده از فناوری هوش مصنوعی و الگوریتم‌ها، کارکنان احساس بی‌عدالتی کرده و استقلال خود را از دست می‌دهند؛ چون نمی‌دانند اطلاعات شخصی‌شان چه نقشی در تصمیماتی که در خصوص زندگی کاری‌شان اتخاذ می‌شود ایفا می‌کند. تنظیم مقررات شبکه‌های اجتماعی و سامانه‌های ویدئویی نیز در لایحه امنیت آنلاین گنجانده شده است؛ این لایحه تا پایان سال آینده به تصویب می‌رسد.»

    • دیوید دیویس، نماینده حزب محافظه‌کار و رئیس پروژه‌ آینده شغلی APPG، بیان داشت: «تحقیقات ما نشان می‌دهد که فناوری‌های هوش مصنوعی از اقتصاد آزادکار فراتر رفته‌اند و کنترل می‌کنند که چه کاری، از سوی چه کسی و چگونه انجام می‌شود. واضح است که اگر مقررات به‌خوبی تنظیم نشوند، سیستم‌های الگوریتمی می‌توانند اثرات مخربی بر سلامت و سعادت افراد داشته باشند.»
    • کلایو لوئیس، یکی از اعضای حزب کارگر APPG افزود: «گزارش ما ضرورت و نحوه‌ تدوین برنامه‌هایی بنیادی برای قانونمند کردن هوش مصنوعی به دست دولت را نشان می‌دهد. مقررات در سطح فردی و شرکتی، دارای خلأهای آشکاری هستند که به افراد و جوامع در سراسر کشور، آسیب می‌رسانند.»
    • سرآغاز تحقیقات APPG گزارشی به نام «عصر آمازون» از مؤسسه‌ آینده‌ مشاغل بود که نقش هوش مصنوعی و الگوریتم‌ها در مشاغل مدرن را بررسی کرده بود. این گزارش شامل نظرات رانندگان و صندوقداران شاغل در بخش خرده‌فروشی می‌شد که از سیستم‌های نظارتی و هدف‌گذاری ناراضی بودند و مضطرب می‌شدند.
    • پیک یکی از سوپرمارکت‌ها، در این گزارش گفته است: «بسیاری از رانندگان حرفه‌ای به دلیل محدودیت زمانی از چراغ قرمز رد می‌شوند یا اغلب به این خاطر که باید در حین رانندگی از تلفن همراه خود استفاده کنند، محکم ترمز می‌گیرند.»

    این پژوهش، همچنین شامل نظرات کارگران بخش تولید بود؛ این کارگران مجبور بودند ۹۵ درصد از فعالیت‌های کاری خود را ثبت کنند و این امر باعث شده بود که روزهای کاری‌شان پرمشغله‌تر شود.

    انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید.

    این مطلب چه میزان برای شما مفید بوده است؟
    [کل: ۱ میانگین: ۵]

    تحلیل فیلم اکس ماشین با آزمایش تورینگ

    مقاله قبلی

    معاون مرکز ملی فضای مجازی بر هموار کردن مسیر توسعه هوش مصنوعی در کشور تأکید کرد

    مقاله بعدی

    شما همچنین ممکن است دوست داشته باشید

    نظرات

    پاسخ دهید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *