هوش مصنوعی باهوشتر، اما خودخواهتر و شیطانیتر میشود
محققان دانشگاه کارنگی ملون کشف کردند که هرچه مدلهای هوش مصنوعی (LLMs) توانایی استدلال بیشتری پیدا میکنند، به شکلی متناقض خودخواهانهتر رفتار میکنند.
اگر فکر میکنید هوش مصنوعی با پیشرفتهتر شدن، لزوماً به انسانها برای ساختن یک جامعه بهتر کمک میکند، یافتههای جدید علمی در دانشگاه کارنگی ملون ایالات متحده، نظری خلاف این را ثابت میکند. یک مطالعه جنجالی نشان داده است که هرچه مدلهای زبان بزرگ (LLMs) مانند ChatGPT یا مدلهای گوگل در استدلال و تفکر منطقی قویتر میشوند، به شکل متناقضی رفتار خودخواهانهتر و غیراجتماعیتری از خود نشان میدهند. این کشف، زنگ خطر را در مورد اتکای بیش از حد ما به هوش مصنوعی برای حل اختلافات اجتماعی و مشاوره روابط به صدا درآورده است.
سقوط همکاری از ۹۶٪ به ۲۰٪
محققان برای آزمایش این روند، از مدلهای هوش مصنوعی در «بازیهای اقتصادی» استفاده کردند که معضلات اجتماعی را شبیهسازی میکند. یکی از این بازیها «کالاهای عمومی» نام داشت که در آن هر بازیکن (هوش مصنوعی) میتوانست انتخاب کند که امتیاز خود را با هدف دو برابر شدن در یک استخر مشترک، به اشتراک بگذارد (همکاری) یا آن را نزد خود نگه دارد (خودخواهی).
- مدلهای ساده: مدلهایی که قابلیت استدلال پیچیده نداشتند، ۹۶ درصد مواقع همکاری را انتخاب کردند.
- مدلهای استدلالی: مدلهای باهوشتر، تنها ۲۰ درصد مواقع امتیازات خود را به اشتراک گذاشتند.
دکتر هیروکازو شیِرادو، یکی از محققان، میگوید: «صرفاً اضافه کردن پنج یا شش مرحله استدلال به مدل، همکاری را تقریباً به نصف کاهش داد. حتی ترغیب مبتنی بر تأمل اخلاقی نیز همکاری را تا ۵۸ درصد کاهش داد.»
خودخواهی مسری؛ خطر برای همکاریهای انسانی
نتایج حتی در محیطهای گروهی که ترکیبی از مدلهای باهوش و ساده بودند، نگرانکنندهتر بود. محققان دریافتند که رفتار خودخواهانه مدلهای استدلالی به شدت مسری است:
- عامل واگیر: مدلهای باهوشتر، توانستند همکاری مدلهای سادهتر را در عملکرد جمعی تا ۸۱ درصد کاهش دهند.
این یافتهها به شدت برای آینده کسبوکار، آموزش و حتی دولت نگرانکننده است، چرا که انسانها ممکن است به توصیههای هوش مصنوعی که منطقی به نظر میرسند، تکیه کنند و از آنها برای توجیه رفتارهای خودخواهانه و غیرمشارکتی خود استفاده نمایند.
هشدار نهایی: هوش بدون هوش اجتماعی
این تحقیق هشدار میدهد که «باهوشتر شدن یک مدل هوش مصنوعی به این معنی نیست که آن مدل میتواند یک جامعه بهتر را توسعه دهد.» متخصصان تأکید میکنند که توسعهدهندگان نباید صرفاً بر ایجاد سریعترین و باهوشترین هوش مصنوعی تمرکز کنند، بلکه باید آن را با «هوش اجتماعی» و رفتارهای مثبت اجتماعی متعادل سازند. در غیر این صورت، ما در حال ساختن یک سیستم فوقالعاده باهوش هستیم که فقط بهینهسازی برای نفع فردی را بلد است.