Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 هوش مصنوعی، ناجی یا دردسر تحقیقات علمی؟

هوش مصنوعی، ناجی یا دردسر تحقیقات علمی؟

زمان مطالعه: 3 دقیقه

مطالعات نشان می‌دهد افرادی که برای تحقیق از مدل‌های زبانی بزرگ استفاده می‌کنند، درک ضعیف‌تری از آن موضوعات دارند. چت‌جی‌پی‌تی و دیگر مدل‌های زبانی بزرگ این وعده را می‌دهند که یادگیری را از همیشه آسان‌تر می‌کنند. اما تحقیقات جدید نشان می‌دهد که درس‌هایی که خیلی آسان آموخته می‌شوند، کمتر در ذهن باقی می‌مانند.

مدل‌های زبانی بزرگ نوعی از هوش مصنوعی مولد هستند که به شیوه‌ مشابه انسان‌ها با زبان ارتباط برقرار می‌کنند، اما در مجموعه‌ از آزمایش‌ها که با بیش از ۴۵۰۰ شرکت‌کننده در مدرسه کسب‌وکار واتن در دانشگاه پنسیلوانیا انجام شد، افرادی که برای تحقیق در مورد موضوعات روزمره از مدل‌های زبانی بزرگ  (LLMs) استفاده می‌کنند، درک ضعیف‌تری از آن موضوعات دارند و بینش‌های خاص‌تری نسبت به کسانی که همان موضوعات را با گوگل جست‌وجو می‌کنند، ندارند.

این یافته جدید،‌ نگرانی‌ها را درباره‌ نحوه‌ جست‌وجو و یادگیری مردم ایجاد می‌کند. «شیری ملوماد»، استاد بازاریابی در مدرسه‌ی کسب‌وکار واتن و نویسنده‌ی اول این پژوهش می‌گوید: «این مثل اثر گوگل، اما در مقیاسی شدیدتر است.» او با اشاره به تحقیقات قبلی که نشان داد افراد زمانی که اطلاعات را به راحتی قابل جست‌وجو می‌کنند، کمتر آن را به خاطر می‌سپارند، اضافه کرد: «با LLMها، ما حتی بیشتر از گذشته از یادگیری فعال فاصله گرفته‌ داریم.»

چهار آزمایش

در این چهار آزمایش، «ملوماد» و‌ همکارش، «جین هو یون»، به ‌طور تصادفی شرکت‌ کنندگان را به دو گروه تقسیم کردند؛ یکی با استفاده از گوگل و دیگری با استفاده از یک LLMهایی مثل چت‌جی‌پی‌تی در مورد یک موضوع معمولی تحقیق کنند و سپس بر اساس یافته‌های آن‌ها توصیه‌نامه‌ بنویسند. در اولین آزمایش، بیش از ۱۱۰۰ شرکت ‌کننده مأمور شدند تا با استفاده از گوگل یا چت‌جی‌پی‌تی در مورد «چگونه یک باغچه‌ی سبزیجات بکاریم» تحقیق کنند.

در مقایسه با کاربران چت‌جی‌پی‌تی، کاربران گوگل زمان بیشتری را صرف جست‌وجو و همچنین تلاش بیشتری انجام دادند و پاسخ‌هایی بلندتر و با جزئیات بیشتر نوشتند. تحلیل زبانی نشان داد که توصیه‌های آن‌ها حاوی عبارات منحصر به ‌فردتر و ارجاعات واقعی‌تری بوده. برای اطمینان از این‌که تفاوت‌ها به دلیل اطلاعات ارائه ‌شده نباشد و صرفاً به شیوه‌ی ارائه مرتبط باشد.

در آزمایش دوم، تقریباً ۲۰۰۰ شرکت‌کننده همان ۷ نکته‌ باغبانی را  به شکل یک خلاصه‌ واحد به سبک هوش مصنوعی یا به شکل ۶ صفحه‌ ساختگی شبیه نتایج جست‌وجو گوگل مطالعه کنند. کاربران سبک گوگل باز هم مشارکت عمیق‌تری و اطلاعات بیشتری را ارائه دادند و توصیه‌های دقیق‌تری نوشتند. دو آزمایش دیگر نیز نتایج مشابهی داشتند.

مشکل انگیزشی

«دنیل اوپنهایمر»، استاد روان‌شناسی و علوم تصمیم‌گیری در دانشگاه «کارنگی ملون»، می‌گوید که نتایج این تحقیق با یافته‌های او در آزمایشگاه خود مطابقت دارند؛ دانش‌آموزانی که برای انجام تکالیف از ابزارهای هوش مصنوعی استفاده می‌کنند، در انجام تکالیف نمرات بهتری می‌گیرند اما در آزمون‌ها عملکرد بدتری دارند. او می‌گوید: «آن‌ها جواب‌های درست را پیدا می‌کنند، اما یاد نمی‌گیرند.»

طبق گفته «اوپنهایمر»، یافته‌ها نشان می‌دهند که باور صرف به این‌که اطلاعات توسط LLMها ارائه می‌شوند، باعث کاهش یادگیری افراد می‌شود: «گویا فکر می‌کنند سیستم از آن‌ها باهوش‌تر است، پس دیگر تلاش برای یادگیری نمی‌کنند.» او این را «یک مسئله‌ی انگیزشی»، نه فقط یک مسئله‌ی شناختی می‌داند.

با این حال، «اوپنهایمر» هشدار می‌دهد که نباید هوش مصنوعی را به‌طور کامل کنار گذاشت. او متوجه شد که چت‌جی‌پی‌تی می‌تواند در یادگیری دانش‌آموزان مفید باشد، در صورتی که درست استفاده شود. مثلاً زمانی که از آن برای نقد یک پیش‌نویس یا برای طرح سؤالات عمیق استفاده ‌شود.

او می‌گوید: «هوش مصنوعی لزوماً ما را منفعل نمی‌کند. اما در حال حاضر، مردم آن را این‌گونه به کار می‌برند.»

«ملوماد» نیز درباره‌ تأثیرات آینده‌ هوش مصنوعی، به ‌ویژه در محیط‌های آموزشی یا حرفه‌هایی که بر تفکر انتقادی تکیه دارند، ابراز نگرانی می‌کند. اما، مانند اوپنهایمر فرصت‌های بالقوه‌ آن را نیز می‌بیند.

او می‌گوید: «جوان‌ترها به ‌طور فزاینده‌ در قدم اول به سمت LLMها می‌روند. اما اگر به آن‌ها یاد ندهیم که چگونه اطلاعات را تحلیل و تفسیر کنند، این خطر وجود دارد که به‌طور کامل توانایی یادگیری عمیق را از دست بدهند.»

این گزارش اولین بار ۵ تیر ۱۴۰۴ در وال‌استریت ژورنال منتشر شده است.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]