Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 هوش مصنوعی هم مانند انسان‌ها می‌تواند بیش از حد مطمئن و دارای تعصبات شناختی باشد

هوش مصنوعی هم مانند انسان‌ها می‌تواند بیش از حد مطمئن و دارای تعصبات شناختی باشد

زمان مطالعه: 3 دقیقه

مطالعه‌ای جدید نشان داده است که هوش مصنوعی، علیرغم تفاوت‌های بنیادین در نحوه‌ی «تفکر» با انسان، گاهی تصمیماتی به اندازه‌ی ما غیرمنطقی می‌گیرد.

در تقریباً نیمی از سناریوهای بررسی‌شده، ChatGPT بسیاری از رایج‌ترین سوگیری‌های تصمیم‌گیری انسانی را نشان داده است. این یافته‌ها که در تاریخ ۸ آوریل در نشریه‌ی Manufacturing & Service Operations Management منتشر شده، نخستین پژوهشی است که رفتار ChatGPT را در مواجهه با ۱۸ تعصب شناختی شناخته‌شده در روان‌شناسی انسانی بررسی کرده است.

تعصب مصنوعی

نویسندگان این مقاله از پنج مؤسسه‌ی دانشگاهی در کانادا و استرالیا، مدل‌های زبانی GPT-3.5 و GPT-4 (دو مدل اصلی ChatGPT) را آزمایش کرده‌اند. آنها دریافتند که اگرچه این مدل‌ها از لحاظ استدلال «قابل توجه و باثبات» هستند، اما همچنان از اشتباهات مشابه انسان‌ها مصون نیستند.

به گفته‌ی پژوهشگران، این ثبات رفتاری هم مزایا دارد و هم معایب. «یانگ چن»، نویسنده‌ی اصلی این مطالعه و استاد مدیریت عملیات در مدرسه کسب‌وکار آیوی، در بیانیه‌ای گفت: «مدیران زمانی بیشترین بهره را از این ابزارها می‌برند که با مسائلی با راه‌حل‌های روشن و فرمول‌محور سر و کار دارند. اما اگر پای تصمیمات سلیقه‌ای یا مبتنی بر ترجیح در میان است، باید با احتیاط عمل کرد.»

در این تحقیق، محققان سوگیری‌های رایج انسانی نظیر ترس از ریسک، اعتماد به نفس بیش از حد، و «اثر مالکیت» (تمایل به ارزش‌گذاری بیشتر برای چیزهایی که مالک آن‌ها هستیم) را به صورت سوالاتی به ChatGPT ارائه کردند تا ببینند آیا هوش مصنوعی نیز همان خطاها را مرتکب می‌شود یا نه.

تصمیم‌های عقلانی — گاهی اوقات

دانشمندان، سوالاتی فرضی از روان‌شناسی سنتی را در قالب موقعیت‌های تجاری واقعی مانند مدیریت موجودی کالا یا مذاکره با تامین‌کنندگان به مدل‌ها ارائه کردند. هدف این بود که بررسی شود آیا هوش مصنوعی نه تنها سوگیری‌های انسانی را تقلید می‌کند، بلکه آیا در حوزه‌های مختلف کسب‌وکار نیز این رفتارها را نشان می‌دهد یا نه.

در مسائل با پاسخ‌های ریاضی واضح، GPT-4 عملکرد بهتری نسبت به GPT-3.5 داشت و اشتباهات کمتری در سناریوهای مبتنی بر منطق و احتمال نشان داد. اما در موقعیت‌های ذهنی، مانند انتخاب گزینه‌ای پرریسک برای رسیدن به سود، این مدل رفتاری مشابه با ترجیحات غیرمنطقی انسانی از خود نشان داد.

در مقاله آمده: «GPT-4 حتی تمایل بیشتری به قطعیت نسبت به انسان‌ها دارد.» این مدل در مواجهه با وظایف مبهم، بیشتر به سمت پاسخ‌های امن و قابل پیش‌بینی گرایش دارد.

از نکات قابل‌توجه مطالعه این بود که رفتار مدل‌ها تقریباً بدون تغییر باقی ماند، چه سوالات در قالب روان‌شناسی انتزاعی مطرح شوند، چه در قالب فرآیندهای تجاری. نتیجه‌گیری پژوهشگران این بود که این سوگیری‌ها تنها حاصل یادگیری نمونه‌های حفظ‌شده نیستند، بلکه بخشی از روش استدلال AI هستند.

از یافته‌های جالب دیگر این بود که GPT-4 گاهی حتی اشتباهات انسانی را تشدید می‌کند. مثلاً در وظایف مربوط به سوگیری تأییدی، این مدل همیشه پاسخ‌های دارای سوگیری می‌داد. همچنین گرایش بیشتری به خطای «دست داغ» (یعنی تمایل به دیدن الگو در رویدادهای تصادفی) نسبت به GPT-3.5 داشت.

با این حال، ChatGPT توانست از برخی سوگیری‌های انسانی رایج مانند نادیده‌گرفتن نرخ پایه (ترجیح اطلاعات موردی بر آمار) و خطای هزینه‌ی غرق‌شده (تأثیر هزینه‌های گذشته بر تصمیمات آینده) اجتناب کند.

چرا این اتفاق می‌افتد؟

به گفته‌ی نویسندگان، منبع این سوگیری‌های شبیه به انسان، داده‌های آموزشی مدل است که شامل همان سوگیری‌ها و میان‌بُرهای ذهنی است که انسان‌ها نیز از آن‌ها استفاده می‌کنند. این تمایلات در مرحله‌ی تنظیم دقیق مدل، مخصوصاً زمانی که بازخورد انسانی پاسخ‌های باورپذیر را به پاسخ‌های منطقی ترجیح می‌دهد، تقویت می‌شوند. در مواجهه با وظایف مبهم، مدل‌های هوش مصنوعی بیشتر به الگوهای استدلال انسانی تکیه می‌کنند تا منطق صرف.

یانگ چن می‌گوید: «اگر به دنبال پشتیبانی دقیق و بدون سوگیری در تصمیم‌گیری هستید، از GPT در حوزه‌هایی استفاده کنید که در آن‌ها به یک ماشین حساب اعتماد دارید.»
اما زمانی که نتیجه به ورودی‌های ذهنی یا راهبردی بستگی دارد، نظارت انسانی ضروری است — حتی اگر تنها به اصلاح متن درخواست منجر شود.

«مینا اندیاپان»، یکی از نویسندگان همکار مقاله و استاد منابع انسانی و مدیریت در دانشگاه مک‌مستر کانادا می‌گوید:
«هوش مصنوعی باید مثل کارمندی که تصمیمات مهم می‌گیرد، با نظارت و اصول اخلاقی اداره شود. وگرنه خطر آن وجود دارد که به جای اصلاح خطاهای ذهنی، آن‌ها را خودکارسازی کنیم.»

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]