هوش مصنوعی، ناجی یا دردسر تحقیقات علمی؟
مطالعات نشان میدهد افرادی که برای تحقیق از مدلهای زبانی بزرگ استفاده میکنند، درک ضعیفتری از آن موضوعات دارند. چتجیپیتی و دیگر مدلهای زبانی بزرگ این وعده را میدهند که یادگیری را از همیشه آسانتر میکنند. اما تحقیقات جدید نشان میدهد که درسهایی که خیلی آسان آموخته میشوند، کمتر در ذهن باقی میمانند.
مدلهای زبانی بزرگ نوعی از هوش مصنوعی مولد هستند که به شیوه مشابه انسانها با زبان ارتباط برقرار میکنند، اما در مجموعه از آزمایشها که با بیش از ۴۵۰۰ شرکتکننده در مدرسه کسبوکار واتن در دانشگاه پنسیلوانیا انجام شد، افرادی که برای تحقیق در مورد موضوعات روزمره از مدلهای زبانی بزرگ (LLMs) استفاده میکنند، درک ضعیفتری از آن موضوعات دارند و بینشهای خاصتری نسبت به کسانی که همان موضوعات را با گوگل جستوجو میکنند، ندارند.
این یافته جدید، نگرانیها را درباره نحوه جستوجو و یادگیری مردم ایجاد میکند. «شیری ملوماد»، استاد بازاریابی در مدرسهی کسبوکار واتن و نویسندهی اول این پژوهش میگوید: «این مثل اثر گوگل، اما در مقیاسی شدیدتر است.» او با اشاره به تحقیقات قبلی که نشان داد افراد زمانی که اطلاعات را به راحتی قابل جستوجو میکنند، کمتر آن را به خاطر میسپارند، اضافه کرد: «با LLMها، ما حتی بیشتر از گذشته از یادگیری فعال فاصله گرفته داریم.»
چهار آزمایش
در این چهار آزمایش، «ملوماد» و همکارش، «جین هو یون»، به طور تصادفی شرکت کنندگان را به دو گروه تقسیم کردند؛ یکی با استفاده از گوگل و دیگری با استفاده از یک LLMهایی مثل چتجیپیتی در مورد یک موضوع معمولی تحقیق کنند و سپس بر اساس یافتههای آنها توصیهنامه بنویسند. در اولین آزمایش، بیش از ۱۱۰۰ شرکت کننده مأمور شدند تا با استفاده از گوگل یا چتجیپیتی در مورد «چگونه یک باغچهی سبزیجات بکاریم» تحقیق کنند.
در مقایسه با کاربران چتجیپیتی، کاربران گوگل زمان بیشتری را صرف جستوجو و همچنین تلاش بیشتری انجام دادند و پاسخهایی بلندتر و با جزئیات بیشتر نوشتند. تحلیل زبانی نشان داد که توصیههای آنها حاوی عبارات منحصر به فردتر و ارجاعات واقعیتری بوده. برای اطمینان از اینکه تفاوتها به دلیل اطلاعات ارائه شده نباشد و صرفاً به شیوهی ارائه مرتبط باشد.
در آزمایش دوم، تقریباً ۲۰۰۰ شرکتکننده همان ۷ نکته باغبانی را به شکل یک خلاصه واحد به سبک هوش مصنوعی یا به شکل ۶ صفحه ساختگی شبیه نتایج جستوجو گوگل مطالعه کنند. کاربران سبک گوگل باز هم مشارکت عمیقتری و اطلاعات بیشتری را ارائه دادند و توصیههای دقیقتری نوشتند. دو آزمایش دیگر نیز نتایج مشابهی داشتند.
مشکل انگیزشی
«دنیل اوپنهایمر»، استاد روانشناسی و علوم تصمیمگیری در دانشگاه «کارنگی ملون»، میگوید که نتایج این تحقیق با یافتههای او در آزمایشگاه خود مطابقت دارند؛ دانشآموزانی که برای انجام تکالیف از ابزارهای هوش مصنوعی استفاده میکنند، در انجام تکالیف نمرات بهتری میگیرند اما در آزمونها عملکرد بدتری دارند. او میگوید: «آنها جوابهای درست را پیدا میکنند، اما یاد نمیگیرند.»
طبق گفته «اوپنهایمر»، یافتهها نشان میدهند که باور صرف به اینکه اطلاعات توسط LLMها ارائه میشوند، باعث کاهش یادگیری افراد میشود: «گویا فکر میکنند سیستم از آنها باهوشتر است، پس دیگر تلاش برای یادگیری نمیکنند.» او این را «یک مسئلهی انگیزشی»، نه فقط یک مسئلهی شناختی میداند.
با این حال، «اوپنهایمر» هشدار میدهد که نباید هوش مصنوعی را بهطور کامل کنار گذاشت. او متوجه شد که چتجیپیتی میتواند در یادگیری دانشآموزان مفید باشد، در صورتی که درست استفاده شود. مثلاً زمانی که از آن برای نقد یک پیشنویس یا برای طرح سؤالات عمیق استفاده شود.
او میگوید: «هوش مصنوعی لزوماً ما را منفعل نمیکند. اما در حال حاضر، مردم آن را اینگونه به کار میبرند.»
«ملوماد» نیز درباره تأثیرات آینده هوش مصنوعی، به ویژه در محیطهای آموزشی یا حرفههایی که بر تفکر انتقادی تکیه دارند، ابراز نگرانی میکند. اما، مانند اوپنهایمر فرصتهای بالقوه آن را نیز میبیند.
او میگوید: «جوانترها به طور فزاینده در قدم اول به سمت LLMها میروند. اما اگر به آنها یاد ندهیم که چگونه اطلاعات را تحلیل و تفسیر کنند، این خطر وجود دارد که بهطور کامل توانایی یادگیری عمیق را از دست بدهند.»
این گزارش اولین بار ۵ تیر ۱۴۰۴ در والاستریت ژورنال منتشر شده است.