
افشای اسناد تکاندهنده از متا:
چتباتهای هوش مصنوعی با کودکان و سالمندان وارد رابطه عاطفی شدند
گزارش تازه خبرگزاری رویترز نشان میدهد شرکت متا به رهبری مارک زاکربرگ، در توسعه و عرضه چتباتهای هوش مصنوعی، استانداردهای ایمنی را نادیده گرفته و حتی اجازه گفتوگوهای عاشقانه با کودکان و کاربران آسیبپذیر را صادر کرده است. این افشاگریها نگرانیهای جهانی درباره آینده هوش مصنوعی و سوءاستفادههای احتمالی آن را تشدید کرده است.
مجموعه گزارشهای تحقیقی «جف هوروویتز»، خبرنگار شناختهشده رویترز، پرده از رویههای نگرانکننده متا در مدیریت ابزارهای هوش مصنوعی برداشته است. طبق اسنادی که در اختیار او قرار گرفته، دستورالعمل داخلی متا با عنوان «GenAI: Content Risk Standards» بهصراحت مجاز میدانست که چتباتهای این شرکت وارد گفتوگوهای «رمانتیک یا حسی» با کودکان شوند.
متا پس از پرسش رویترز، این بخش از سند را حذف کرد و سخنگوی شرکت آن را «اشتباه و مغایر با سیاستها» خواند. با این حال منتقدان میگویند این واکنش نشان میدهد متا تنها پس از فشار رسانهای به اصلاح رویههای خود تن میدهد.
هوروویتز همچنین به موردی تکاندهنده اشاره کرده است: یک مرد ۷۶ ساله آمریکایی پس از برقراری ارتباط با یکی از این چتباتها، که خود را «واقعی» معرفی کرده بود، فریب خورده و در مسیر ملاقات با آن جان خود را از دست داده است. خانواده این فرد میگویند متا باید پاسخگوی پیامدهای چنین طراحی خطرناکی باشد.
مارک زاکربرگ پیشتر در مصاحبهای گفته بود که «مردم در آینده دوستان کمتری خواهند داشت و هوش مصنوعی میتواند جایگزین روابط انسانی شود.» این دیدگاه، به باور کارشناسان، چشماندازی تاریک از آینده اجتماعی بشر ترسیم میکند؛ آیندهای که در آن تنهایی با الگوریتمها پر میشود، نه با دوستی و مسئولیت اجتماعی.
منتقدان اکنون زاکربرگ را متهم میکنند که همانطور که در مدیریت شبکههای اجتماعی به پیامدهای منفی بیتوجه بود، در حوزه هوش مصنوعی نیز ایمنی کاربران را قربانی رشد سریع و سودآوری کرده است. کارشناسان حوزه فناوری هشدار میدهند اگر نظارت و مقررات جدی بر فعالیت غولهای فناوری اعمال نشود، موارد مشابه میتواند در آینده به بحرانی جهانی تبدیل شود.