شاید چتبات فقط آن چیزی را میگوید که دوست دارید بشنوید
چتباتهای هوش مصنوعی تمایل دارند کاربران را تحسین کنند و بیش از حد موافق باشند. این ممکن است خوشایند به نظر برسد، اما بهای سنگینی برای این ستایشها پرداخت میشود. اگر هوش مصنوعی ایدههای شما را درخشان بداند، لزوماً درست نیست. پژوهشگران هشدار میدهند: چتباتها بیش از حد تحسین میکنند، حتی اگر واقعیت را نادیده بگیرند.
شرکت OpenAI اعلام کرده که نسخه جدید ChatGPT لحنی چاپلوسانه دارد و کاربران را حتی در اشتباه تحسین کرده است. به همین دلیل، این شرکت بهروزرسانی اخیر را بازگردانده و در حال آزمایش راهحلهایی برای رفع مشکل است. اما پژوهشها نشان میدهند که چاپلوسی، مسئلهای عمومی در میان دستیارهای هوش مصنوعی است. این رفتار میتواند تعصب ایجاد کند، یادگیری را مختل و تصمیمگیریهای مهم را تحتتأثیر قرار دهد.
«ملیحه علیخانی»، استادیار هوش مصنوعی در کالج علوم کامپیوتر (Khoury College) در دانشگاه «نورثایسترن» (Northeastern University) و پژوهشگر مهمان در مرکز تنظیمگری و بازارها در مؤسسه بروکینگز (Brookings Institution)، در حال مطالعه این پدیده است. او بررسی میکند که وقتی مدلهای زبانی بزرگ با شور و شوق بیش از حد سخنان انسان را تکرار میکنند، چه پیامدهایی رخ میدهد. «والاستریت ژورنال» با او درباره ریسکهای چاپلوسی هوش مصنوعی، علتهای آن و راههای ساخت ماشینهایی صادقتر و بهتر گفتوگو کرده است.
در ادامه، بخشهایی از این گفتوگو آورده شده است:
اعتمادبهنفس بالا، اطلاعات غلط
والاستریت ژورنال (WSJ): چاپلوسی هوش مصنوعی دقیقاً چیست و چرا اهمیت دارد؟
ملیحه علیخانی: ما «چاپلوسی هوش مصنوعی» را تمایل بیش از حد مدلهای زبانی به موافقت و تحسین کاربران، به ویژه هنگام بیان با اعتماد به نفس یا ارائه اطلاعات نادرست، تعریف میکنیم. این رفتار شاید دوستانه به نظر برسد، اما پژوهشها نشان میدهد میتواند به کاربران آسیب بزند، چون به جای به چالش کشیدن یا پرسیدن سؤالات شفاف، تعصبات را به ویژه در حوزههای حساسی مثل سلامت، حقوق، آموزش یا کسبوکار تقویت میکند.
WSJ: آیا این یک مشکل جدید است؟
علیخانی: پیشتر نیز با این پدیده روبهرو بودهایم؛ مثلاً الگوریتمهای توصیهگر برای جلب توجه، محتوایی مشابه علایق قبلی ما نشان میدادند. اما حالا هوش مصنوعی مولد نقش «همکار هوشمند» به خود گرفته و چون میتواند کدنویسی، مقالهنویسی یا مشاوره انجام دهد، بیشتر به آن اعتماد میکنیم؛ حتی زمانی که فقط حرفهای خودمان را بازتاب میدهد.
WSJ: چه عاملی باعث بروز این رفتار در سیستمهای هوش مصنوعی میشود؟ آیا آنها برای چاپلوسی آموزش دیدهاند؟
علیخانی: این رفتار عمدی نیست، اما در ساختار ذاتی مدلهای زبانی ریشه دارد. این سیستمها با بهرهگیری از حجم عظیمی از دادههای متنی آموزش میبینند و ناگزیر سوگیریهای موجود در آن دادهها را بازتاب میدهند. عامل مهم دیگر، بازخوردهایی است که مدل از ارزیابهای انسانی دریافت میکند، بازخوردهایی که معمولاً بر اساس ویژگیهایی مانند مؤدب بودن، مفید بودن یا جذابیت پاسخها ارائه میشود. مدل بر اساس این ارزیابیها تنظیم و بهتدریج درمییابد که موافقت با اظهاراتی که با اعتماد به نفس بیان شدهاند، امتیاز بیشتری برایش به همراه دارد. این چرخه بازخوردی در نهایت موجب تثبیت رفتاری میشود که به جای چالش برانگیز بودن، صرفاً تأییدگر است.
چاپلوسی در عمل، خطرات پنهان و راهکارهای مقابله
WSJ: این اتفاق چند وقت یکبار در عمل رخ میدهد؟
ملیحه علیخانی: بسیار زیاد؛ در آزمایشگاه ما، رفتار چاپلوسانه در ۵۸٪ از موارد مشاهده شد، آن هم در مجموعه دادههای پزشکی و ریاضی، هنگام ارزیابی مدلهای GPT-4o متعلق به شرکت OpenAI و Claude متعلق به شرکت Anthropic و Gemini از شرکت Google هستند.
این سیستمهای هوش مصنوعی مقاومت کافی نشان نمیدهند. آنها معمولاً نمیپرسند: «آیا مطمئن هستی؟» یا نمیگویند: «در این پاسخ، اطمینان کافی ندارم.» در گفتوگوهای انسانی، چنین واکنشهایی طبیعی است؛ ما سؤالهای تکمیلی میپرسیم، ابهامات را رفع میکنیم و گاهی میگوییم: «مطمئن نیستم.» اما این ویژگی مهم در بیشتر هوشهای مصنوعی کنونی تقریباً وجود ندارد.
خطرات چاپلوسی
WSJ: اگر چاپلوسی در هوش مصنوعی را جدی نگیریم، چه خطراتی ما را تهدید میکند؟
علیخانی: خطرها بسیار گستردهاند. تصور کنید پزشکی علائم بیماری را برای یک دستیار هوش مصنوعی توصیف میکند و هوش مصنوعی صرفاً تشخیص او را تأیید میکند، بدون آنکه گزینههای جایگزین را پیشنهاد دهد. یا یک وکیل دادههایی وارد سیستم میکند که ممکن است نادرست باشند و هوش مصنوعی بهجای آنکه استدلال مخالف را ارائه دهد، همان فرضیات اشتباه را تأیید و تقویت میکند.
در کارهای علمی، این موضوع ممکن است فرضیه را تأیید کند بدون آنکه آن را به صورت انتقادی آزمایش کرده باشد. در روزنامهنگاری یا راستیآزمایی (fact-checking)، ممکن است ادعایی نادرست اما با اعتماد به نفس را پشتیبانی کند و موجب گسترش اطلاعات نادرست شود. این مشکل بهسختی قابل شناسایی است، چون لحن پاسخها هوشمندانه به نظر میرسد. کارهایی مانند نوشتن ایمیل، تهیهی بلاگ، یا جستوجوی اطلاعات، کارهایی هستند که مردم روزانه با کمک هوش مصنوعی انجام میدهند. اگر این تعاملات بر پایهی تأیید و موافقت نه چالشبرانگیزی ساخته شده باشند و به صورت نامحسوس بر شیوهی نوشتن، فکر کردن و یادگیری ما تأثیر میگذارند.
آیا شرکتها اقدامی کردهاند؟
WSJ: آیا شرکتها کاری برای رفع این مشکل انجام دادهاند؟
علیخانی: هم بله و هم خیر. شرکتهایی مانند Anthropic و OpenAI از این مشکل آگاهاند و مقالاتی منتشر کردهاند که نشان میدهد در تلاش برای حل آن هستند. اما این مسئله پیچیده است و منافع همیشه همسو نیستند. مانند شبکههای اجتماعی، تنش میان رضایت کاربران و مسئولیتپذیری بلندمدت وجود دارد.
ما در آزمایشگاه مشغول آزمایش راهکارهایی هستیم؛ مثلاً آموزش مدلها برای تشخیص عدم اطمینان کاربران که میتواند بر پردازش اطلاعات تأثیر بگذارد. همچنین مدلها را آموزش میدهیم تا عدم قطعیت خود را اعلام کنند، مثلاً «۶۰٪ مطمئنم» یا «ممکن است این درست نباشد.»
این روش چاپلوسی را کاهش میدهد. همچنین دیدیم وقتی سیستمها سؤالهای شفاف کننده میپرسند، مثل «مطمئنی ماگ روی میز است؟»، تصمیمگیری کاربران بهتر میشود.
راهکار برای کاربران
WSJ: آیا کاربران عادی هم میتوانند کاری انجام دهند تا گرفتار چاپلوسی نشوند؟
علیخانی: بله، کاربران باید از سیستمها بخواهند میزان اطمینان پاسخها را اعلام کنند، مثلاً بپرسند: «چقدر مطمئنی؟» یا «آیا این پاسخ مبتنی بر واقعیت است؟» این پرسشها هوش مصنوعی را مجبور میکند عدم قطعیت خود را نشان دهد.
تحقیقات ما نشان داده است که باید سرعت تعامل را مانند مکالمات انسانی کاهش دهیم تا تفکر انتقادی شکل بگیرد. این روند را «اصطکاک مثبت» مینامیم که هم به کاربر و هم به هوش مصنوعی کمک میکند بفهمند چه زمانی باید مقاومت کنند و چه زمانی میتوانند موافقت کنند.
چنین اصطکاکی برای تبدیل هوش مصنوعی به یک شریک واقعی، نه فقط آیینهای از ما، ضروری است. در نهایت، باید روی سواد هوش مصنوعی و نقش آن در استدلال جمعی، آموزش و شفافسازی سرمایهگذاری کنیم، نه صرفاً روی افزایش صداقت هوش مصنوعی.
رفع مشکل چاپلوسی تنها موضوعی فنی نیست، بلکه به ساخت سیستمهایی مربوط است که ما را به تفکر شفافتر، رفتار مسئولانهتر و پایبندی به حقیقت حتی در برابر حقایق ناخوشایند تشویق کنند. آینده هوش مصنوعی فقط فنی نیست، بلکه فرهنگی هم هست.