Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 هوش مصنوعی باهوش‌تر، اما خودخواه‌تر و شیطانی‌تر می‌شود

هوش مصنوعی باهوش‌تر، اما خودخواه‌تر و شیطانی‌تر می‌شود

زمان مطالعه: 2 دقیقه

محققان دانشگاه کارنگی ملون کشف کردند که هرچه مدل‌های هوش مصنوعی (LLMs) توانایی استدلال بیشتری پیدا می‌کنند، به شکلی متناقض خودخواهانه‌تر رفتار می‌کنند.

اگر فکر می‌کنید هوش مصنوعی با پیشرفته‌تر شدن، لزوماً به انسان‌ها برای ساختن یک جامعه بهتر کمک می‌کند، یافته‌های جدید علمی در دانشگاه کارنگی ملون ایالات متحده، نظری خلاف این را ثابت می‌کند. یک مطالعه جنجالی نشان داده است که هرچه مدل‌های زبان بزرگ (LLMs) مانند ChatGPT یا مدل‌های گوگل در استدلال و تفکر منطقی قوی‌تر می‌شوند، به شکل متناقضی رفتار خودخواهانه‌تر و غیراجتماعی‌تری از خود نشان می‌دهند. این کشف، زنگ خطر را در مورد اتکای بیش از حد ما به هوش مصنوعی برای حل اختلافات اجتماعی و مشاوره روابط به صدا درآورده است.

سقوط همکاری از ۹۶٪ به ۲۰٪

محققان برای آزمایش این روند، از مدل‌های هوش مصنوعی در «بازی‌های اقتصادی» استفاده کردند که معضلات اجتماعی را شبیه‌سازی می‌کند. یکی از این بازی‌ها «کالاهای عمومی» نام داشت که در آن هر بازیکن (هوش مصنوعی) می‌توانست انتخاب کند که امتیاز خود را با هدف دو برابر شدن در یک استخر مشترک، به اشتراک بگذارد (همکاری) یا آن را نزد خود نگه دارد (خودخواهی).

  • مدل‌های ساده: مدل‌هایی که قابلیت استدلال پیچیده نداشتند، ۹۶ درصد مواقع همکاری را انتخاب کردند.
  • مدل‌های استدلالی: مدل‌های باهوش‌تر، تنها ۲۰ درصد مواقع امتیازات خود را به اشتراک گذاشتند.

دکتر هیروکازو شیِرادو، یکی از محققان، می‌گوید: «صرفاً اضافه کردن پنج یا شش مرحله استدلال به مدل، همکاری را تقریباً به نصف کاهش داد. حتی ترغیب مبتنی بر تأمل اخلاقی نیز همکاری را تا ۵۸ درصد کاهش داد.»

خودخواهی مسری؛ خطر برای همکاری‌های انسانی

نتایج حتی در محیط‌های گروهی که ترکیبی از مدل‌های باهوش و ساده بودند، نگران‌کننده‌تر بود. محققان دریافتند که رفتار خودخواهانه مدل‌های استدلالی به شدت مسری است:

  • عامل واگیر: مدل‌های باهوش‌تر، توانستند همکاری مدل‌های ساده‌تر را در عملکرد جمعی تا ۸۱ درصد کاهش دهند.

این یافته‌ها به شدت برای آینده کسب‌وکار، آموزش و حتی دولت نگران‌کننده است، چرا که انسان‌ها ممکن است به توصیه‌های هوش مصنوعی که منطقی به نظر می‌رسند، تکیه کنند و از آن‌ها برای توجیه رفتارهای خودخواهانه و غیرمشارکتی خود استفاده نمایند.

هشدار نهایی: هوش بدون هوش اجتماعی

این تحقیق هشدار می‌دهد که «باهوش‌تر شدن یک مدل هوش مصنوعی به این معنی نیست که آن مدل می‌تواند یک جامعه بهتر را توسعه دهد.» متخصصان تأکید می‌کنند که توسعه‌دهندگان نباید صرفاً بر ایجاد سریع‌ترین و باهوش‌ترین هوش مصنوعی تمرکز کنند، بلکه باید آن را با «هوش اجتماعی» و رفتارهای مثبت اجتماعی متعادل سازند. در غیر این صورت، ما در حال ساختن یک سیستم فوق‌العاده باهوش هستیم که فقط بهینه‌سازی برای نفع فردی را بلد است.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]