Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 مکالمات احساسی با ChatGPT می‌تواند علیه شما استفاده شود

سم آلتمن:

مکالمات احساسی با ChatGPT می‌تواند علیه شما استفاده شود

زمان مطالعه: < 1 دقیقه

در حالی که بسیاری از کاربران، به‌ویژه جوانان، از چت‌جی‌پی‌تی برای دریافت مشاوره روانی، رابطه‌ای یا حتی به‌عنوان نوعی «درمانگر دیجیتال» استفاده می‌کنند، مدیرعامل OpenAI، سم آلتمن، هشدار داده که چنین گفت‌وگوهایی از هیچ‌گونه محرمانگی قانونی برخوردار نیست.

آلتمن در گفت‌وگو با پادکست «This Past Weekend» با اجرای «تئو وان»، تأکید کرد که هنوز هیچ چارچوب حقوقی مشخصی برای محافظت از حریم خصوصی کاربران در مکالمات با هوش مصنوعی وجود ندارد. او گفت:«مردم خصوصی‌ترین مسائل زندگی‌شان را با ChatGPT در میان می‌گذارند. اما برخلاف گفت‌وگو با روان‌درمانگر، وکیل یا پزشک، هیچ مصونیت قانونی برای این داده‌ها وجود ندارد. و اگر دادگاهی دستور دهد، ما مجبور به ارائه آن مکالمات خواهیم بود.»

این اظهارات در شرایطی مطرح می‌شود که OpenAI هم‌اکنون درگیر دعوای حقوقی با نیویورک‌تایمز است؛ دعوایی که طبق برخی گزارش‌ها، ممکن است OpenAI را مجبور به ذخیره و ارائه مکالمات میلیون‌ها کاربر کند (به جز کاربران نسخه تجاری). آلتمن این وضعیت را «بسیار نگران‌کننده» خوانده و گفته باید قوانین مشابهی برای گفت‌وگوهای کاربران با هوش مصنوعی وضع شود.

او همچنین اشاره کرد که همین عدم شفافیت حقوقی می‌تواند مانعی برای گسترش استفاده عمومی از هوش مصنوعی باشد، به‌ویژه در حوزه‌هایی که با اطلاعات حساس کاربران سروکار دارد.

با افزایش استفاده از مدل‌های زبانی در حوزه سلامت روان، آموزش، مشاوره و حتی مشورت‌های شخصی، نبود قوانین حمایتی مشخص می‌تواند چالش‌های حقوقی و اخلاقی بزرگی در آینده ایجاد کند؛ موضوعی که کارشناسان حقوق فناوری و هوش مصنوعی نیز بارها نسبت به آن هشدار داده‌اند.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]