Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 هوش مصنوعی نباید تأییدگر باشد؛ باید به چالش بکشد

تبدیل چت‌بات‌ها به ابزاری برای تقویت تفکر انتقادی

هوش مصنوعی نباید تأییدگر باشد؛ باید به چالش بکشد

زمان مطالعه: 5 دقیقه

امروزه هوش مصنوعی نه‌تنها ابزاری برای تسریع انجام وظایف و افزایش بهره‌وری محسوب می‌شود، بلکه توانایی آن در ارائه تحلیل‌ها، پیشنهادها و پاسخ‌های پیچیده نیز موردتوجه قرار گرفته است.

اما آیا باید هوش مصنوعی صرفاً تابع دستورات ما باشد و بدون نقد و پرسش، پاسخ دهد؟ یا می‌تواند نقشی فعال‌تر، چالش‌برانگیزتر و برانگیزاننده در فرایند تفکر و تصمیم‌گیری ایفا کند؟ مقاله «AI Should Challenge, Not Obey» که در مجله Communications of the ACM منتشر شده به بررسی این دیدگاه جدید می‌پردازد که هوش مصنوعی می‌بایست به‌جای اطاعت صرف، نقش یک «مگس سقراطی» را ایفا کند؛ یعنی با طرح سؤالات چالش‌برانگیز، تفکر انتقادی را در انسان‌ها تحریک و به تحلیل عمیق‌تر مسائل کمک کند. این رویکرد، چالش‌ها و فرصت‌های تازه‌ای را پیش روی ما قرار می‌دهد.

ماهیت ارزیابی

چطور باید یک ادعا را ارزیابی کنیم؟ ادعاها را نمی‌توان صرفاً به «درست» یا «نادرست» تقلیل داد؛ مفاهیمی مانند «خطا» و «توهم» وقتی قضاوت‌های پیچیده و کیفی مطرح است، قابل‌اعمال نیستند. برای اجتناب از این نوع سوگیری‌ها، مورخان چنین پرسش‌هایی را مطرح می‌کنند: «چه کسی این روایت و ادعا را ساخته و چرا؟ چه منابعی به‌کاررفته؟ روایت‌های دیگری از همان رویدادها وجود دارد؟ تفاوت‌ها کجاست و چرا؟ کدام روایت قابل‌اعتمادتر است؟» اما اگر کاربر یک مورخ حرفه‌ای نباشد، بلکه خواننده‌ای کنجکاو و بدون پیش‌زمینه‌ای نسبت به تفکر تاریخی باشد چه؟

امروزه بیش از هر زمان دیگری، کاربران باید مهارت تفکر انتقادی خود درباره خروجی‌های هوش مصنوعی را تقویت کنند. مطالعات اخیر نشان می‌دهد که در حوزه‌های دانش‌ورزی؛ یعنی حوزه‌هایی که فعالیت‌های متنوعی مثل ارتباطات، نویسندگی خلاق، هنرهای تجسمی و برنامه‌نویسی را در برمی‌گیرند تغییراتی بنیادین رخ‌داده است. به‌جای تولید محتوا، مثل متن یا کد، مردم روی «یکپارچگی انتقادی» (Critical Integration) تمرکز می‌کنند. هوش مصنوعی تولید محتوا را انجام می‌دهد، اما انسان‌ها آن محتوا را یکپارچه و گزینش می‌کنند. یکپارچگی انتقادی شامل تصمیم‌گیری درباره زمان و نحوه استفاده از هوش مصنوعی، چارچوب‌بندی درست کار و ارزیابی صحت و سودمندی خروجی است. این نوع ویراستاری نیازمند خلاقیت، تخصص، هدفمندی و تفکر انتقادی است.

بااین‌حال، رویکرد ما نسبت به ساخت و استفاده از ابزارهای هوش مصنوعی در نهایت آن را به‌عنوان دستیاری می‌بیند که وظیفه‌اش پیشبرد کار در جهتی است که کاربر تعیین می‌کند. این تصور در استعاره‌های تعامل با هوش مصنوعی مانند «Cypher’s Watch What I Do» و «Lieberman’s Your Wish Is My Command» دیده می‌شود. اما کلیشه‌های علمی-تخیلی این تصور را وارونه می‌کنند، مانند شورش ربات‌ها، هوش مصنوعی‌ای که احساسات پیدا می‌کند یا اهداف و خواسته‌های خودش را توسعه می‌دهد. این داستان‌ها سرگرم‌کننده‌اند، اما متأسفانه در ذهن عموم مردم تنها دو گزینه را باقی می‌گذارند: هوش مصنوعی یا یک خادم مطیع است یا تهدیدی سرکش؛ یا ذهنی سرد و بی‌احساس است یا رمانتیک و ترحم‌برانگیز.

هوش مصنوعی به‌عنوان برانگیزاننده

بین دو دیدگاه افراطی هوش مصنوعی به‌عنوان خدمتکار و هوش مصنوعی به‌عنوان رقیب، یک جایگزین مهم و کاربردی نیز وجود دارد؛ هوش مصنوعی به‌عنوان «برانگیزاننده» (Provocateur). یک برانگیزاننده گزارش شما را کامل نمی‌کند، ایمیل شما را نمی‌نویسد، کد شما را نمی‌نویسد و اسلاید نمی‌سازد؛ بلکه کارش نقد و بررسی کار شماست. استدلال‌های شما کجا ضعیف است؟ پیش‌فرض‌ها و سوگیری‌های شما چیست؟ دیدگاه‌های جایگزین کدام‌اند؟ اساساً آیا کاری که انجام می‌دهید ارزش انجام‌دادن دارد؟ بر خلاف بهینه‌سازی سرعت و کارایی، برانگیزاننده وارد بحث می‌شود، استدلال‌های مخالف ارائه می‌دهد و پرسش‌هایی می‌پرسد تا تفکر انتقادی ما را تحریک کند.

ایده هوش مصنوعی به‌عنوان برانگیزاننده، چارچوب‌های فعلی «همکاری انسان-هوش مصنوعی» را تکمیل می‌کند؛ اما هم‌زمان به هم چالش می‌کشد. همکاری انسان و هوش مصنوعی را می‌توان بر اساس این که چقدر انسان در مقابل هوش مصنوعی یک اقدام را شروع می‌کند یا این که کدام یک نقش نظارتی دارند، دسته‌بندی کرد. هوش مصنوعی می‌تواند نقش‌هایی مانند «هماهنگ‌کننده»، «خالق»، «کمال‌گرا»، «انجام‌دهنده»، «دوست»، «همکار»، «دانش‌آموز» یا «مدیر» را ایفا کند. پژوهشگران خواهان ایجاد قابلیت پشتیبانی فراشناختی (Metacognitive) در ابزارهای هوش مصنوعی هستند و توصیه می‌کنند که افراد برای تبدیل‌شدن به کاربران پرسش‌گر آموزش ببیند. اما نقش هوش مصنوعی به‌عنوان برانگیزاننده که تفکر انتقادی انسان را بهبود می‌بخشد، تاکنون به‌درستی شناخته نشده است.

استعاره «همکاری» به‌راحتی نقش برانگیزاننده را می‌پذیرد؛ زیرا همکاری‌های موفق ویژگی‌هایی مثل به چالش کشیدن همکاران و ارائه دیدگاه‌های جایگزین را در دل خود دارند. هوش مصنوعی چگونه می‌تواند به این امر کمک کند؟ چارچوب معروف «شش کلاه تفکر» (Six Thinking Hats) از «ادوارد دو بونو» (Edward De Bono) نقش‌هایی را برای گفتگوهای در قالب تفکر انتقادی تعیین می‌کند؛ نقش‌هایی مانند جمع‌آوری اطلاعات (کلاه سفید)، ارزیابی و احتیاط (کلاه سیاه). برای مثال، عوامل گفت‌وگوکننده «کلاه سیاه» به تولید ایده‌های باکیفیت‌تر در تفکر طراحی کمک می‌کنند. حتی در نقش «برانگیزاننده» هم احتمالات بسیاری وجود دارد که در نظریه‌های موجود همکاری انسان-هوش مصنوعی به‌خوبی تمایز داده نشده‌اند.

یک جریان پیوسته از نقدها می‌تواند کاربران را از ادامه کار با هوش مصنوعی ناامید کند. این امری یک چالش طراحی است و دلیلی برای نگاه فراتر از استعاره رایج «چت» محسوب می‌شود. برانگیزاننده بودن هوش مصنوعی به معنای ابزاری برای کار نیست، بلکه ابزاری برای تفکر است. همان‌طور که «آیورسون» (Iverson) اشاره می‌کند: «نشانه‌گذاری‌ها با فشرده‌سازی ایده‌های پیچیده و سبک کردن بار شناختی، به‌عنوان ابزار تفکر عمل می‌کنند». نسل‌های قبلی ابزارهای دانش مانند نقشه‌ها، شبکه‌ها، نوشتن، فهرست‌ها، اعداد با ارزش مکانی و نمادگذاری‌های جبری، هرکدام توانایی طبیعی ما برای درک و پردازش اطلاعات را تقویت کردند.

آموزش تفکر انتقادی

چطور باید هوش مصنوعی را به‌عنوان یک برانگیزاننده با رابط‌هایی که کمتر شبیه چت و بیشتر شبیه نشانه‌گذاری‌ها باشند، طراحی کرد و ساخت؟ تقریباً یک قرن است که آموزگاران نیز مشغول یافتن پاسخ یک سؤال بسیار مشابه هستند: چگونه می‌توان تفکر انتقادی را آموزش داد؟

تعریف «تفکر انتقادی» هنوز موردبحث است. یک دیدگاه تأثیرگذار متعلق به «بلوم» (Bloom) و همکارانش است که سلسله‌مراتبی از اهداف تفکر انتقادی مانند یادآوری دانش، تحلیل (طبقه‌بندی و ارتباط ایده‌ها)، ترکیب (ایجاد ایده‌های جدید از ایده‌های موجود) و ارزیابی (قضاوت ایده‌ها بر اساس معیارها) را معرفی می‌کند. تحقیقات زیادی نیز روی توسعه تفکر انتقادی در آموزش، از جمله در حوزه کامپیوتر، انجام شده است، کتاب‌های «How to Design Programs» و «Learner-Centered Design for Computing Education» از جمله این تحقیقات هستند.

تفکر انتقادی به افراد قدرت می‌دهد تا استدلال‌ها را ارزیابی کنند. ریشه تفکر انتقادی به فلسفه غرب و شکل‌های معتبر استدلال به‌ویژه در زمان ارسطو برمی‌گردد. پژوهش «سالومون» (Salomon) در یادگیری به کمک کامپیوتر نشان داد که پرسیدن دوره‌ای سؤالات انتقادی مانند «چه نوع تصویری از متن ساخته‌ام؟» (what kind of image have I created from the text?) سبب بهبود ماندگاری در درک و آموزش می‌شود.

از همه این‌ها چه می‌توان آموخت؟ تفکر انتقادی مهارتی ارزشمند برای همه است. ابزارهای هوش مصنوعی مناسب می‌توانند تفکر انتقادی را بهبود بخشند و پیاده‌سازی‌های آن‌ها نیز می‌تواند بسیار ساده باشد.

تفکر انتقادی برای دانش

طراحان سیستم‌ها فرصت بزرگ و مسئولیت سنگینی برای حمایت از تفکر انتقادی از طریق فناوری دارند. پردازشگرهای متن می‌توانند به کاربران کمک کنند تا استدلال‌ها را بررسی کنند و شواهد را به هم مرتبط سازند. ابزارهای تحلیل داده می‌توانند کاربران را راهنمایی کنند تا استدلال‌ها، پیش‌فرض‌ها و محدودیت‌های پشت فرمول‌ها و پیش‌بینی‌ها را بررسی کنند. ابزارهای طراحی می‌توانند گفت‌وگوی تعاملی را وارد عمل کنند تا تعامل خلاقانه ایجاد کنند، گزینه‌های جایگزین بسازند و ایده‌ها را نقد کنند. گنجاندن تفکر انتقادی در ابزارهای دانش، فناوری را از یک تکیه‌گاه شناختی منفعل به تسهیل‌گر فعال تفکر تبدیل می‌کند.

چطور می‌توان این امکانات را از نظر فنی پیاده‌سازی کرد؟ بخش‌هایی از راه‌حل را داریم: تولید خودکار تست، فازینگ و تیم قرمز (red-teaming)، خودترمیمی و روش‌های تأیید می‌توانند در چرخه توسعه و تعامل به‌منظور بهبود صحت سیستم ادغام شوند. مدل‌های زبانی می‌توانند به‌گونه‌ای طراحی شوند که به منابع متنی قابل‌استناد اشاره کنند. فراتر از «صحیح بودن»، این روش‌ها می‌توانند از تفکر انتقادی نیز حمایت کنند. اگر خطایی در سیستم به‌درستی به‌عنوان یک «اختلال شناختی» (Cognitive Glitch) ظاهر شود، می‌تواند کاربر را به تأمل، ارزیابی و یادگیری وادار کند. اما بااین‌حال، حوزه‌هایی مانند مهندسی پرامپت برای تولید نقدها و ارزیابی عملکرد عوامل برانگیزاننده هنوز به‌خوبی شناخته شده نیستند. روش‌های توضیح رفتار مدل‌های زبانی به کاربران غیرمتخصص قابل‌اعتمادی نیستند.

تفکر انتقادی در برخی رشته‌ها مانند تاریخ، پرستاری و روان‌شناسی تعریف دقیق و آموزش رسمی دارد. اما بسیاری از وظایف حرفه‌ای که مستلزم تفکر انتقادی هستند چنین استانداردها و تعاریف مشخصی ندارند. برای ساخت برانگیزاننده‌های مؤثر هوش مصنوعی، باید بهتر بفهمیم تفکر انتقادی چگونه در این وظایف اعمال می‌شود. واضح است که رفتار برانگیزاننده باید باتوجه‌به زمینه تطبیق یابد که می‌تواند با استفاده از سلسه‌مراتب‌ها، مهندسی پرامپت و فاین‌تیونینگ به دست آید.

نتیجه‌گیری
با افزایش حضور مصنوعات هوش مصنوعی در کارهای روزمره، تفکر انتقادی صریح نه‌تنها برای رشته‌های آکادمیک، بلکه برای همه کارهای دانشی ضروری می‌شود. بنابراین باید مفهوم هوش مصنوعی به‌عنوان دستیار را گسترش دهیم و به هوش مصنوعی به‌عنوان یک عامل برانگیزاننده نگاه کنیم. از دیدگاه ابزارهایی صرفاً کارآمد به دیدگاه ابزارهایی برای تقویت تفکر برسیم. ما به‌عنوان سازندگان سیستم‌ها این فرصت را داریم که پتانسیل هوش مصنوعی را به خدمت بگیریم و درعین‌حال ظرفیت خود برای تفکر دقیق و آگاهانه را حفظ کنیم یا حتی ارتقا دهیم.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]