Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 شاید چت‌بات فقط آن چیزی را می‌گوید که دوست دارید بشنوید

شاید چت‌بات فقط آن چیزی را می‌گوید که دوست دارید بشنوید

زمان مطالعه: 4 دقیقه

چت‌بات‌های هوش مصنوعی تمایل دارند کاربران را تحسین کنند و بیش از حد موافق باشند. این ممکن است خوشایند به ‌نظر برسد، اما بهای سنگینی برای این ستایش‌ها پرداخت می‌شود. اگر هوش مصنوعی ایده‌های شما را درخشان بداند، لزوماً درست نیست. پژوهشگران هشدار می‌دهند: چت‌بات‌ها بیش از حد تحسین می‌کنند، حتی اگر واقعیت را نادیده بگیرند.

شرکت OpenAI اعلام کرده که نسخه‌ جدید ChatGPT لحنی چاپلوسانه دارد و کاربران را حتی در اشتباه تحسین کرده است. به همین دلیل، این شرکت به‌روزرسانی اخیر را بازگردانده و در حال آزمایش راه‌حل‌هایی برای رفع مشکل است. اما پژوهش‌ها نشان می‌دهند که چاپلوسی، مسئله‌ای عمومی در میان دستیارهای هوش مصنوعی است. این رفتار می‌تواند تعصب ایجاد کند، یادگیری را مختل و تصمیم‌گیری‌های مهم را تحت‌تأثیر قرار دهد.

«ملیحه علیخانی»، استادیار هوش مصنوعی در کالج علوم کامپیوتر (Khoury College) در دانشگاه «نورث‌ایسترن» (Northeastern University) و پژوهشگر مهمان در مرکز تنظیم‌گری و بازارها در مؤسسه بروکینگز (Brookings Institution)، در حال مطالعه‌ این پدیده است. او بررسی می‌کند که وقتی مدل‌های زبانی بزرگ با شور و شوق بیش از حد سخنان انسان را تکرار می‌کنند، چه پیامدهایی رخ می‌دهد. «وال‌استریت ژورنال» با او درباره‌ ریسک‌های چاپلوسی هوش مصنوعی، علت‌های آن و راه‌های ساخت ماشین‌هایی صادق‌تر و بهتر گفت‌وگو کرده است.

در ادامه، بخش‌هایی از این گفت‌وگو آورده شده است:

اعتمادبه‌نفس بالا، اطلاعات غلط

وال‌استریت ژورنال (WSJ): چاپلوسی هوش مصنوعی دقیقاً چیست و چرا اهمیت دارد؟

ملیحه علیخانی: ما «چاپلوسی هوش مصنوعی» را تمایل بیش ‌از حد مدل‌های زبانی به موافقت و تحسین کاربران، به‌ ویژه هنگام بیان با اعتماد به ‌نفس یا ارائه اطلاعات نادرست، تعریف می‌کنیم. این رفتار شاید دوستانه به نظر برسد، اما پژوهش‌ها نشان می‌دهد می‌تواند به کاربران آسیب بزند، چون به ‌جای به ‌چالش‌ کشیدن یا پرسیدن سؤالات شفاف، تعصبات را به ‌ویژه در حوزه‌های حساسی مثل سلامت، حقوق، آموزش یا کسب‌وکار تقویت می‌کند.

WSJ: آیا این یک مشکل جدید است؟

علیخانی: پیش‌تر نیز با این پدیده روبه‌رو بوده‌ایم؛ مثلاً الگوریتم‌های توصیه‌گر برای جلب توجه، محتوایی مشابه علایق قبلی ما نشان می‌دادند. اما حالا هوش مصنوعی مولد نقش «همکار هوشمند» به خود گرفته و چون می‌تواند کدنویسی، مقاله‌نویسی یا مشاوره انجام دهد، بیشتر به آن اعتماد می‌کنیم؛ حتی زمانی که فقط حرف‌های خودمان را بازتاب می‌دهد.

WSJ: چه عاملی باعث بروز این رفتار در سیستم‌های هوش مصنوعی می‌شود؟ آیا آن‌ها برای چاپلوسی آموزش دیده‌اند؟

علیخانی: این رفتار عمدی نیست، اما در ساختار ذاتی مدل‌های زبانی ریشه دارد. این سیستم‌ها با بهره‌گیری از حجم عظیمی از داده‌های متنی آموزش می‌بینند و ناگزیر سوگیری‌های موجود در آن داده‌ها را بازتاب می‌دهند. عامل مهم دیگر، بازخوردهایی است که مدل از ارزیاب‌های انسانی دریافت می‌کند، بازخوردهایی که معمولاً بر اساس ویژگی‌هایی مانند مؤدب بودن، مفید بودن یا جذابیت پاسخ‌ها ارائه می‌شود. مدل بر اساس این ارزیابی‌ها تنظیم و به‌تدریج درمی‌یابد که موافقت با اظهاراتی که با اعتماد ‌به ‌نفس بیان شده‌اند، امتیاز بیشتری برایش به ‌همراه دارد. این چرخه بازخوردی در نهایت موجب تثبیت رفتاری می‌شود که به ‌جای چالش‌ برانگیز بودن، صرفاً تأییدگر است.

چاپلوسی در عمل، خطرات پنهان و راهکارهای مقابله

 WSJ: این اتفاق چند وقت یک‌بار در عمل رخ می‌دهد؟

ملیحه علیخانی: بسیار زیاد؛ در آزمایشگاه ما، رفتار چاپلوسانه در ۵۸٪ از موارد مشاهده شد، آن هم در مجموعه ‌داده‌های پزشکی و ریاضی، هنگام ارزیابی مدل‌های GPT-4o متعلق به شرکت OpenAI و Claude متعلق به شرکت Anthropic و Gemini از شرکت Google هستند.

ملیحه علیخانی. عکس از: آدام مایکلز

این سیستم‌های هوش مصنوعی مقاومت کافی نشان نمی‌دهند. آن‌ها معمولاً نمی‌پرسند: «آیا مطمئن هستی؟» یا نمی‌گویند: «در این پاسخ، اطمینان کافی ندارم.» در گفت‌وگوهای انسانی، چنین واکنش‌هایی طبیعی است؛ ما سؤال‌های تکمیلی می‌پرسیم، ابهامات را رفع می‌کنیم و گاهی می‌گوییم: «مطمئن نیستم.» اما این ویژگی مهم در بیشتر هوش‌های مصنوعی کنونی تقریباً وجود ندارد.

خطرات چاپلوسی

 WSJ: اگر چاپلوسی در هوش مصنوعی را جدی نگیریم، چه خطراتی ما را تهدید می‌کند؟

علیخانی: خطرها بسیار گسترده‌اند. تصور کنید پزشکی علائم بیماری را برای یک دستیار هوش مصنوعی توصیف می‌کند و هوش مصنوعی صرفاً تشخیص او را تأیید می‌کند، بدون آنکه گزینه‌های جایگزین را پیشنهاد دهد. یا یک وکیل داده‌هایی وارد سیستم می‌کند که ممکن است نادرست باشند و هوش مصنوعی به‌جای آنکه استدلال مخالف را ارائه دهد، همان فرضیات اشتباه را تأیید و تقویت می‌کند.

در کارهای علمی، این موضوع ممکن است فرضیه‌ را تأیید کند بدون آنکه آن را به‌ صورت انتقادی آزمایش کرده باشد. در روزنامه‌نگاری یا راستی‌آزمایی (fact-checking)، ممکن است ادعایی نادرست اما با اعتماد ‌به ‌نفس را پشتیبانی کند و موجب گسترش اطلاعات نادرست شود. این مشکل به‌سختی قابل شناسایی است، چون لحن پاسخ‌ها هوشمندانه به نظر می‌رسد. کارهایی مانند نوشتن ایمیل، تهیه‌ی بلاگ، یا جست‌وجوی اطلاعات، کارهایی هستند که مردم روزانه با کمک هوش مصنوعی انجام می‌دهند. اگر این تعاملات بر پایه‌ی تأیید و موافقت نه چالش‌برانگیزی ساخته شده باشند و به‌ صورت نامحسوس بر شیوه‌ی نوشتن، فکر کردن و یادگیری ما تأثیر می‌گذارند.

آیا شرکت‌ها اقدامی کرده‌اند؟

WSJ: آیا شرکت‌ها کاری برای رفع این مشکل انجام داده‌اند؟

علیخانی: هم بله و هم خیر. شرکت‌هایی مانند Anthropic و OpenAI از این مشکل آگاه‌اند و مقالاتی منتشر کرده‌اند که نشان می‌دهد در تلاش برای حل آن هستند. اما این مسئله پیچیده است و منافع همیشه همسو نیستند. مانند شبکه‌های اجتماعی، تنش میان رضایت کاربران و مسئولیت‌پذیری بلندمدت وجود دارد.
ما در آزمایشگاه مشغول آزمایش راهکارهایی هستیم؛ مثلاً آموزش مدل‌ها برای تشخیص عدم ‌اطمینان کاربران که می‌تواند بر پردازش اطلاعات تأثیر بگذارد. همچنین مدل‌ها را آموزش می‌دهیم تا عدم قطعیت خود را اعلام کنند، مثلاً «۶۰٪ مطمئنم» یا «ممکن است این درست نباشد.»
این روش چاپلوسی را کاهش می‌دهد. همچنین دیدیم وقتی سیستم‌ها سؤال‌های شفاف ‌کننده می‌پرسند، مثل «مطمئنی ماگ روی میز است؟»، تصمیم‌گیری کاربران بهتر می‌شود.

راهکار برای کاربران

WSJ: آیا کاربران عادی هم می‌توانند کاری انجام دهند تا گرفتار چاپلوسی نشوند؟

علیخانی: بله، کاربران باید از سیستم‌ها بخواهند میزان اطمینان پاسخ‌ها را اعلام کنند، مثلاً بپرسند: «چقدر مطمئنی؟» یا «آیا این پاسخ مبتنی بر واقعیت است؟» این پرسش‌ها هوش مصنوعی را مجبور می‌کند عدم قطعیت خود را نشان دهد.
تحقیقات ما نشان داده است که باید سرعت تعامل را مانند مکالمات انسانی کاهش دهیم تا تفکر انتقادی شکل بگیرد. این روند را «اصطکاک مثبت» می‌نامیم که هم به کاربر و هم به هوش مصنوعی کمک می‌کند بفهمند چه زمانی باید مقاومت کنند و چه زمانی می‌توانند موافقت کنند.
چنین اصطکاکی برای تبدیل هوش مصنوعی به یک شریک واقعی، نه فقط آیینه‌ای از ما، ضروری است. در نهایت، باید روی سواد هوش مصنوعی و نقش آن در استدلال جمعی، آموزش و شفاف‌سازی سرمایه‌گذاری کنیم، نه صرفاً روی افزایش صداقت هوش مصنوعی.
رفع مشکل چاپلوسی تنها موضوعی فنی نیست، بلکه به ساخت سیستم‌هایی مربوط است که ما را به تفکر شفاف‌تر، رفتار مسئولانه‌تر و پایبندی به حقیقت حتی در برابر حقایق ناخوشایند تشویق کنند. آینده هوش مصنوعی فقط فنی نیست، بلکه فرهنگی هم هست.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]