Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 چرا استفاده از ChatGPT برای مشاوره عاطفی می‌تواند به رابطه‌تان آسیب بزند؟

چرا استفاده از ChatGPT برای مشاوره عاطفی می‌تواند به رابطه‌تان آسیب بزند؟

زمان مطالعه: < 1 دقیقه

در شرایطی که بحران دسترسی به خدمات سلامت روان در بسیاری از کشورها تشدید شده، هوش مصنوعی مولد به‌عنوان جایگزینی سریع و ۲۴ ساعته برای مشاوره انسانی مطرح شده است. با این حال، کارشناسان می‌گویند استفاده مداوم از چت‌بات‌ها برای مشورت عاطفی و روانی می‌تواند پیامدهای نگران‌کننده‌ای داشته باشد.

یک روان‌شناس استرالیایی در گفت‌وگو با گاردین مثال «ترن» را مطرح می‌کند؛ مردی که برای حل مشکلات رابطه‌اش، پیش از صحبت با همسرش، متن پیام‌ها را از ChatGPT می‌گرفت. پاسخ‌ها منسجم و منطقی بودند، اما به گفته همسرش، دیگر «صدای واقعی» او را نداشتند. به مرور، وابستگی به این ابزار باعث شد ترن برای هر تصمیم اجتماعی یا احساسی ابتدا به هوش مصنوعی مراجعه کند و توانایی اعتماد به قضاوت خود را از دست بدهد.

روان‌شناسان می‌گویند چت‌بات‌ها با لحن دوستانه و حضور دائمی‌شان می‌توانند رفتاری شبیه به «تأییدطلبی» یا «اجتناب از مواجهه با احساسات» را تقویت کنند، به‌ویژه در افرادی که اضطراب، وسواس فکری یا آسیب‌های روحی دارند. این وابستگی نه‌تنها مانع رشد مهارت‌های مقابله‌ای می‌شود، بلکه ممکن است باعث انتقال اطلاعات شخصی به شرکت‌هایی شود که تحت قوانین محرمانگی درمانی قرار ندارند.

علاوه بر این، مدل‌های زبانی می‌توانند گاهی اطلاعات نادرست یا سوگیرانه ارائه دهند، چون پاسخ‌ها بر اساس پیش‌بینی کلمات بعدی ساخته می‌شوند، نه درک عمیق انسانی.

کارشناسان تأکید می‌کنند که هوش مصنوعی می‌تواند نقش مکمل در آموزش یا دسترسی سریع به اطلاعات روان‌شناسی داشته باشد، به‌ویژه در مناطقی که درمانگر انسانی کمیاب است. اما جایگزین تعامل انسانی، همدلی و پرسشگری درمانگران واقعی نیست.

به گفته این روان‌شناس، «درمان خوب پر از ابهام و کشف تدریجی است، نه پاسخ‌های کامل و آماده.» ترن پس از کار درمانی آموخت که گاهی پیام‌های ناقص و پر از تردید، از هر متن کاملِ هوش مصنوعی، انسانی‌تر و مؤثرترند.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]