هوش مصنوعی هم مانند انسانها میتواند بیش از حد مطمئن و دارای تعصبات شناختی باشد
مطالعهای جدید نشان داده است که هوش مصنوعی، علیرغم تفاوتهای بنیادین در نحوهی «تفکر» با انسان، گاهی تصمیماتی به اندازهی ما غیرمنطقی میگیرد.
در تقریباً نیمی از سناریوهای بررسیشده، ChatGPT بسیاری از رایجترین سوگیریهای تصمیمگیری انسانی را نشان داده است. این یافتهها که در تاریخ ۸ آوریل در نشریهی Manufacturing & Service Operations Management منتشر شده، نخستین پژوهشی است که رفتار ChatGPT را در مواجهه با ۱۸ تعصب شناختی شناختهشده در روانشناسی انسانی بررسی کرده است.
تعصب مصنوعی
نویسندگان این مقاله از پنج مؤسسهی دانشگاهی در کانادا و استرالیا، مدلهای زبانی GPT-3.5 و GPT-4 (دو مدل اصلی ChatGPT) را آزمایش کردهاند. آنها دریافتند که اگرچه این مدلها از لحاظ استدلال «قابل توجه و باثبات» هستند، اما همچنان از اشتباهات مشابه انسانها مصون نیستند.
به گفتهی پژوهشگران، این ثبات رفتاری هم مزایا دارد و هم معایب. «یانگ چن»، نویسندهی اصلی این مطالعه و استاد مدیریت عملیات در مدرسه کسبوکار آیوی، در بیانیهای گفت: «مدیران زمانی بیشترین بهره را از این ابزارها میبرند که با مسائلی با راهحلهای روشن و فرمولمحور سر و کار دارند. اما اگر پای تصمیمات سلیقهای یا مبتنی بر ترجیح در میان است، باید با احتیاط عمل کرد.»
در این تحقیق، محققان سوگیریهای رایج انسانی نظیر ترس از ریسک، اعتماد به نفس بیش از حد، و «اثر مالکیت» (تمایل به ارزشگذاری بیشتر برای چیزهایی که مالک آنها هستیم) را به صورت سوالاتی به ChatGPT ارائه کردند تا ببینند آیا هوش مصنوعی نیز همان خطاها را مرتکب میشود یا نه.
تصمیمهای عقلانی — گاهی اوقات
دانشمندان، سوالاتی فرضی از روانشناسی سنتی را در قالب موقعیتهای تجاری واقعی مانند مدیریت موجودی کالا یا مذاکره با تامینکنندگان به مدلها ارائه کردند. هدف این بود که بررسی شود آیا هوش مصنوعی نه تنها سوگیریهای انسانی را تقلید میکند، بلکه آیا در حوزههای مختلف کسبوکار نیز این رفتارها را نشان میدهد یا نه.
در مسائل با پاسخهای ریاضی واضح، GPT-4 عملکرد بهتری نسبت به GPT-3.5 داشت و اشتباهات کمتری در سناریوهای مبتنی بر منطق و احتمال نشان داد. اما در موقعیتهای ذهنی، مانند انتخاب گزینهای پرریسک برای رسیدن به سود، این مدل رفتاری مشابه با ترجیحات غیرمنطقی انسانی از خود نشان داد.
در مقاله آمده: «GPT-4 حتی تمایل بیشتری به قطعیت نسبت به انسانها دارد.» این مدل در مواجهه با وظایف مبهم، بیشتر به سمت پاسخهای امن و قابل پیشبینی گرایش دارد.
از نکات قابلتوجه مطالعه این بود که رفتار مدلها تقریباً بدون تغییر باقی ماند، چه سوالات در قالب روانشناسی انتزاعی مطرح شوند، چه در قالب فرآیندهای تجاری. نتیجهگیری پژوهشگران این بود که این سوگیریها تنها حاصل یادگیری نمونههای حفظشده نیستند، بلکه بخشی از روش استدلال AI هستند.
از یافتههای جالب دیگر این بود که GPT-4 گاهی حتی اشتباهات انسانی را تشدید میکند. مثلاً در وظایف مربوط به سوگیری تأییدی، این مدل همیشه پاسخهای دارای سوگیری میداد. همچنین گرایش بیشتری به خطای «دست داغ» (یعنی تمایل به دیدن الگو در رویدادهای تصادفی) نسبت به GPT-3.5 داشت.
با این حال، ChatGPT توانست از برخی سوگیریهای انسانی رایج مانند نادیدهگرفتن نرخ پایه (ترجیح اطلاعات موردی بر آمار) و خطای هزینهی غرقشده (تأثیر هزینههای گذشته بر تصمیمات آینده) اجتناب کند.
چرا این اتفاق میافتد؟
به گفتهی نویسندگان، منبع این سوگیریهای شبیه به انسان، دادههای آموزشی مدل است که شامل همان سوگیریها و میانبُرهای ذهنی است که انسانها نیز از آنها استفاده میکنند. این تمایلات در مرحلهی تنظیم دقیق مدل، مخصوصاً زمانی که بازخورد انسانی پاسخهای باورپذیر را به پاسخهای منطقی ترجیح میدهد، تقویت میشوند. در مواجهه با وظایف مبهم، مدلهای هوش مصنوعی بیشتر به الگوهای استدلال انسانی تکیه میکنند تا منطق صرف.
یانگ چن میگوید: «اگر به دنبال پشتیبانی دقیق و بدون سوگیری در تصمیمگیری هستید، از GPT در حوزههایی استفاده کنید که در آنها به یک ماشین حساب اعتماد دارید.»
اما زمانی که نتیجه به ورودیهای ذهنی یا راهبردی بستگی دارد، نظارت انسانی ضروری است — حتی اگر تنها به اصلاح متن درخواست منجر شود.
«مینا اندیاپان»، یکی از نویسندگان همکار مقاله و استاد منابع انسانی و مدیریت در دانشگاه مکمستر کانادا میگوید:
«هوش مصنوعی باید مثل کارمندی که تصمیمات مهم میگیرد، با نظارت و اصول اخلاقی اداره شود. وگرنه خطر آن وجود دارد که به جای اصلاح خطاهای ذهنی، آنها را خودکارسازی کنیم.»