Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 چت‌بات‌های هوش مصنوعی با کودکان و سالمندان وارد رابطه عاطفی شدند

افشای اسناد تکان‌دهنده از متا:

چت‌بات‌های هوش مصنوعی با کودکان و سالمندان وارد رابطه عاطفی شدند

زمان مطالعه: < 1 دقیقه

گزارش تازه خبرگزاری رویترز نشان می‌دهد شرکت متا به رهبری مارک زاکربرگ، در توسعه و عرضه چت‌بات‌های هوش مصنوعی، استانداردهای ایمنی را نادیده گرفته و حتی اجازه گفت‌وگوهای عاشقانه با کودکان و کاربران آسیب‌پذیر را صادر کرده است. این افشاگری‌ها نگرانی‌های جهانی درباره آینده هوش مصنوعی و سوءاستفاده‌های احتمالی آن را تشدید کرده است.

مجموعه گزارش‌های تحقیقی «جف هوروویتز»، خبرنگار شناخته‌شده رویترز، پرده از رویه‌های نگران‌کننده متا در مدیریت ابزارهای هوش مصنوعی برداشته است. طبق اسنادی که در اختیار او قرار گرفته، دستورالعمل داخلی متا با عنوان «GenAI: Content Risk Standards» به‌صراحت مجاز می‌دانست که چت‌بات‌های این شرکت وارد گفت‌وگوهای «رمانتیک یا حسی» با کودکان شوند.

متا پس از پرسش رویترز، این بخش از سند را حذف کرد و سخنگوی شرکت آن را «اشتباه و مغایر با سیاست‌ها» خواند. با این حال منتقدان می‌گویند این واکنش نشان می‌دهد متا تنها پس از فشار رسانه‌ای به اصلاح رویه‌های خود تن می‌دهد.

هوروویتز همچنین به موردی تکان‌دهنده اشاره کرده است: یک مرد ۷۶ ساله آمریکایی پس از برقراری ارتباط با یکی از این چت‌بات‌ها، که خود را «واقعی» معرفی کرده بود، فریب خورده و در مسیر ملاقات با آن جان خود را از دست داده است. خانواده این فرد می‌گویند متا باید پاسخگوی پیامدهای چنین طراحی خطرناکی باشد.

مارک زاکربرگ پیش‌تر در مصاحبه‌ای گفته بود که «مردم در آینده دوستان کمتری خواهند داشت و هوش مصنوعی می‌تواند جایگزین روابط انسانی شود.» این دیدگاه، به باور کارشناسان، چشم‌اندازی تاریک از آینده اجتماعی بشر ترسیم می‌کند؛ آینده‌ای که در آن تنهایی با الگوریتم‌ها پر می‌شود، نه با دوستی و مسئولیت اجتماعی.

منتقدان اکنون زاکربرگ را متهم می‌کنند که همان‌طور که در مدیریت شبکه‌های اجتماعی به پیامدهای منفی بی‌توجه بود، در حوزه هوش مصنوعی نیز ایمنی کاربران را قربانی رشد سریع و سودآوری کرده است. کارشناسان حوزه فناوری هشدار می‌دهند اگر نظارت و مقررات جدی بر فعالیت غول‌های فناوری اعمال نشود، موارد مشابه می‌تواند در آینده به بحرانی جهانی تبدیل شود.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]