40 گام به سوی آینده‌ای هوشمند - مجموعه وبینارهای رایگان در حوزه هوش مصنوعی
Filter by دسته‌ها
chatGTP
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
تیتر یک
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 سه توانایی کلیدی هوش مصنوعی که در آن به چشم نمی‌خورد

سه توانایی کلیدی هوش مصنوعی که در آن به چشم نمی‌خورد

طی دهه‌ اخیر، یادگیری عمیق مسیر روبه‌رشدی را پشت سر گذاشته و از قرار ‌داشتن به‌عنوان یکی از شاخه‌های امیدوارکننده حوزه‌ هوش مصنوعی، به ستون اصلی بسیاری از نرم‌افزارها تبدیل شده است. با‌‌وجوداین و علی‌رغم تمام پیشرفت‌ها، مشکلات این فناوری همچنان از بین نرفته و پابرجاست. ملانی میچل، استاد مؤسسه سانتا فی و نویسنده‌ کتاب «Artificial Intelligence: A Guide for Thinking Humans»، برجسته‌ترین این مشکلات را نبود سه قابلیت عمده درک معنی، تفکر انتزاعی و استخراج شباهت می‌داند.

میچل، طی یکی از سمینارهای اخیر مؤسسه تحقیقات پیشرفته هوش مصنوعی، در این خصوص توضیح داده که چرا قابلیت استخراج شباهت و تفکر انتزاعی کلید ساخت سیستم‌های هوش مصنوعی مقاوم هستند؟ به گفته‌ او بحث تفکر انتزاعی علی‌رغم تاریخچه‌ طولانی که تاکنون داشته، مورد مطالعه و بررسی دقیق و کافی قرار نگرفته است.

در‌حالی‌که فعالان هوش مصنوعی تمامی تلاش‌ها و منابع خود را به‌صورت روزافزون به رویکردهای داده‌محور مبتنی بر یادگیری عمیق اختصاص می‌دهند، تا بر توانایی کلیدی هوش مصنوعی بیفزایند، به عقیده‌ میچل عملکرد شبه‌انسانی شبکه‌های عصبی صرفاً نتیجه‌ تقلیدی سطحی داشته و فاقد کلیدی‌ترین مؤلفه‌های هوشی است.

نقص در درک معنی توسط هوش مصنوعی

میچل در مصاحبه‌ای با VentureBeat توضیح داده است: «در ادبیات پژوهشی علوم شناختی تعاریف متعددی از معنا به چشم می‌خورد، اما به شخصه تعریف لارنس بارسالو را در این خصوص ترجیح می‌دهم که می‌گوید، معنا قابلیت و تمایل به تولید مفاهیم گوناگون از یک مقوله‌ خاص است.»

به‌عنوان‌مثال، وقتی به مقوله‌ای همچون «درخت» فکر می‌کنیم، انواع مختلفی از درخت اعم از واقعی و تخیلی، حقیقی و کارتونی، عینی و استعاره‌ای، در ذهنمان نقش می‌بندد. ممکن است علاوه بر درخت‌های طبیعی، به درخت خانوادگی (تاریخچه نسل‌های خانواده) و یا درخت سازمانی (سلسله‌مراتب سازمان‌ها) نیز فکر کنیم.

نقص در درک معنی توسط هوش مصنوعی

وی در خصوص نقص در درک معنی توسط هوش مصنوعی اضافه می‌کند: «در‌واقع، نوعی تشابه ذاتی بین همه‌ این موارد وجود دارد که می‌توان به «درخت بودن‌شان» نسبت داد. بنابراین می‌توان گفت معنا یک مدل ذهنی است، که بخشی از شبکه‌ای گسترده‌تر متشکل از معانی دیگر را در بر می‌گیرد.»

با‌این‌که بیشتر متخصصان و پژوهشگران هوش مصنوعی شبکه‌های عصبی را دارای قابلیت یادگیری معنا می‌دانند، نکته‌ کلیدی آن است که این معماری‌های محاسباتی واقعاً آموزش‌پذیر هستند. البته ذهن انسان‌ها مدل‌هایی «مولد» می‌سازد که قادر به شکل‌گیری مفاهیم انتزاعی و نوین هستند، در‌حالی‌که سیستم‌های یادگیری عمیق مدل‌های «تمایزی» هستند که تنها تفاوت‌های جزئی میان مقوله‌های متفاوت را می‌آموزند.

به‌عنوان‌مثال، مدل یادگیری عمیقی که روی تعداد زیادی تصویر پل آموزش دیده، تنها قادر به تشخیص پل‌های جدید است، اما نمی‌تواند مقوله‌هایی را که مبتنی بر معنایی مشابه هستند (همچون تکه چوبی که دو طرف رودخانه را به هم وصل کرده یا مورچه‌هایی که کنار هم قرار گرفته و پل ساخته‌اند) را تشخیص دهد یا به مقوله‌های انتزاعی همچون «پل زدن» بر شکاف طبقاتی اجتماعی بیندیشد.

در‌حقیقت، مدل‌های تمایزی چندین مقوله از‌ پیش‌ تعیین‌شده برای خود دارند و سیستم آن‌ها به‌جای این‌که دانش خود را در موقعیت‌های جدیدتری به کار گیرد، بر اساس همان مقوله‌های از ‌پیش‌ تعیین‌شده تصمیم‌گیری می‌کند.

میچل در خصوص نبود این توانایی کلیدی هوش مصنوعی می‌گوید: «افراد قابلیت استنتاج شباهت‌ها را دارند. برای مثال، اگر شخصی به تصویر ریه‌ انسانی دیگر نگاه کند و ساختار شاخه-شاخه‌ آن را ببیند، ریه را به‌عنوان درخت در نظر نمی‌گیرد، اما می‌تواند شباهت‌های موجود را در سطحی انتزاعی دریابد. به‌عبارت‌دیگر، ما در استنتاج شباهت بین دو یا چند مقوله اطلاعاتی را که از قبل داریم، وارد موقعیت جدید می‌کنیم.»

توانایی کلیدی هوش مصنوعی

عدم دستیابی به تفکر انتزاعی در هوش مصنوعی

شاید از خودتان بپرسید اهمیت مباحث مطرح‌شده در این مطلب چیست؟ در جواب باید بگوییم دنیای واقعی پر از موقعیت‌ها و تجارب جدید است، با این‌ اوصاف، باید بتوانیم با تکیه بر کمترین نمونه‌های ممکن یاد گرفته و بین مشاهدات قبلی و جدید ارتباط برقرار کنیم. متأسفانه بدون قابلیت تفکر انتزاعی و استنتاج شباهت مجبور می‌شویم، برای رویارویی با هر موقعیت جدیدی، بی‌نهایت نمونه‌ آموزشی ببینیم.

آن‌چه تا اینجای مطلب مطرح شد، در‌واقع یکی از مشکلاتی است که شبکه‌های عصبی یادگیری عمیق از آن رنج می‌برند. سیستم‌های یادگیری عمیق به‌شدت به مشاهدات «خارج از توزیع» یا OOD حساس هستند، منظور از مشاهدات OOD نمونه‌هایی از یک مقاله‌ خاص هستند که با نمونه‌های آموزشی مدل تفاوت دارند. به‌عنوان‌مثال، شبکه‌ عصبی کانولوشنی را در نظر بگیرید که روی دیتاست ImageNet آموزش دیده است، این شبکه در رویارویی با تصاویر دنیای واقعی که میزان نور یا زاویه‌ دید متفاوتی از دیتاست آموزشی دارند، با مشکل مواجه خواهد بود و عملکردش به‌شدت افت می‌کند. یک سیستم یادگیری عمیق تقویتی نیز که برای انجام یک بازی کامپیوتری خاص آموزش‌دیده با کوچک‌ترین تغییری در بازی با شکست مواجه می‌شود.

علاوه بر این‌ها، مدل‌های یادگیری عمیق می‌توانند ویژگی‌های اشتباهی را از روی نمونه‌های آموزشی استخراج کنند. میچل و همکارانش طی یکی از مطالعات خود، شبکه‌ای عصبی را مورد بررسی قرار دادند که برای دسته‌بندی تصاویر به دو گروه «حیوان» و «غیرحیوان» آموزش دیده بود. نتیجه این آزمایشات بر عدم دستیابی به تفکر انتزاعی در هوش مصنوعی صحه گذاشت و نشان داد که مدل، به‌جای تشخیص حیوانات، تصاویری را شناسایی می‌کند که پس‌زمینه‌ مات دارند، زیرا در دیتاست آموزشی، حیوانات در مرکز تصاویر قرار داشتند و پس‌زمینه مات بوده، در‌حالی‌که در سایر تصاویر بخش ماتی وجود نداشت.

میچل در توضیح بیشتر نقص در توانایی کلیدی هوش مصنوعی توضیح می‌دهد: «مدل‌های تمایزی راحت‌تر از مدل‌های مولد می‌توانند تقلب کنند، به‌عنوان‌مثال امتحانات چندگزینه‌ای و تشریحی را در نظر بگیرید، در این مدل امتحانات حتی اگر بخواهید از بین چند گزینه یکی را انتخاب کنید، احتمالاً بدون درک کامل سؤال هم می‌توانید به نتیجه برسید، اما در سؤالات تشریحی تنها خودتان باید پاسخ را تولید کنید و اینجاست که کار سخت‌تر می‌شود.»

توانایی کلیدی هوش مصنوعی

تفکر انتزاعی و استنتاج تشابه در یادگیری عمیق

جامعه‌ یادگیری عمیق گام‌های مهمی برای حل مشکلات مذکور برداشته است. یکی از دستاوردهای این تلاش‌ها، ظهور حوزه‌ پژوهشی هوش مصنوعی توضیح‌پذیر بوده، که سعی دارد از طریق تکنیک‌های مختلف، ویژگی‌هایی که شبکه‌های عصبی می‌آموزند و شیوه‌ تصمیم‌گیری آن‌ها را تعیین نماید.

از سوی دیگر، پژوهشگران در تلاش‌اند، تا با ساخت دیتاست‌های آموزشی متنوع و متوازن مطمئن شوند که مقاومت سیستم‌های یادگیری عمیق در موقعیت‌های گوناگون همچنان حفظ می‌شود. هدف از حوزه‌ یادگیری غیرنظارتی و خودنظارتی نیز این است که، شبکه‌های عصبی بتوانند به‌جای تکیه بر دسته‌بندی‌های از‌ پیش‌ تعیین‌شده، با استفاده از داده‌های بدون برچسب بیاموزند و به جواب پرسش‌های احتمالی برسند.

یکی از حوزه‌هایی که پیشرفت چشمگیری را در این زمینه تجربه کرده، مدل‌های بزرگ زبانی یا LLM هستند. LLMها شبکه‌های عصبی به شمار می‌روند که روی صدها گیگابایت داده‌ متنی بدون برچسب آموزش می‌بینند. این مدل‌ها معمولاً می‌توانند به‌شیوه‌ای قابل‌‌قبول و قابل‌باور به تولید متن بپردازند و در مکالمات نیز شرکت کنند. برخی از متخصصان معتقدند که LLMها قابلیت فهم معنا را نیز دارند.

با‌این‌حال، به عقیده‌ میچل، اگر معنا را از نظر مفاهیم انتزاعی و قیاسی تعریف کنیم، این ادعا زیر سؤال می‌رود. برای ‌اینکه نیاز به این توانایی کلیدی هوش مصنوعی را بهتر درک کنید به این مثال توجه کنید: انسان‌ها می‌دانند مفهوم «به اضافه» تابعی است که دو مقدار عددی را با هم جمع می‌کند. مدل‌های زبانی بزرگ همچون GPT-3 هم معمولاً می‌توانند مسائل جمع ساده را انجام دهند، اما بسته به نوع بیان سؤال گاهی مرتکب اشتباهاتی می‌شوند، که شباهتی به خطاهای انسانی ندارد.

میچل این شواهد را گواه بر این می‌داند که LLMها درک مقاومی از مفهوم «به اضافه» ندارند و از مکانیزم‌های دیگری برای حل مسائل خود استفاده می‌کنند. وی معتقد است: «در‌کل نمی‌توان به‌صورت قطعی تعیین کرد که LLMها واقعاً قابلیت درک معنا را دارند یا خیر.»

متخصصان به‌تازگی چندین معیار ارزیابی طراحی کرده‌اند، تا ظرفیت سیستم‌های یادگیری عمیق در تفکر انتزاعی و استنتاج شباهت را بسنجند. یکی از این معیارها RAVEN است، که مجموعه‌ای از مسائلی را که ظرفیت تشخیص مفاهیمی همچون تکثر، شباهت، تفاوت در اندازه و تفاوت در موقعیت را دارند، ارزیابی می‌کند.

میچل در خصوص تفکر انتزاعی و استنتاج تشابه در یادگیری عمیق اضافه می‌کند: «معیارهای کنونی هوش مصنوعی و از جمله آن معیارهایی که برای سنجش تفکر انتزاعی و استنتاج شباهت وجود دارند، قادر به سنجش ادراک واقعی ماشین نیستند و تشخیص نمی‌دهند که ماشین‌ها با استفاده از میانبرهای نامعلوم و همبستگی‌های آماری بی‌اساس به نتیجه می‌رسند. به‌علاوه، بیشتر این معیارها صرفاً دیتاست را به دو دسته‌ آموزشی و آزمایشی تقسیم می‌کنند و قابلیت تعمیم مدل را به شیوه‌ درست و سیستماتیک نمی‌سنجند.»

بدنه استدلال انتزاعی یا ARC یک معیار ارزیابی دیگر است که به دست فرانسوا شالت، پژوهشگر هوش مصنوعی، تدوین شده. دلیل اهمیت ARC در این است که تعداد بسیار کمی نمونه‌ آموزشی داشته و دیتاست آزمایشی‌ آن از چالش‌هایی تشکیل شده‌اند که از دیتاست آموزشی متفاوت هستند. یکی از رقابت‌های پلتفرم یادگیری ماشینی و علوم داده Kaggle به این موضوع پرداخته است، اما این حوزه تاکنون پیشرفت چندانی نداشته است.

توانایی کلیدی هوش مصنوعی

میچل می‌گوید: «معیار ARC راهی برای مقابله با مسائل و محدودیت‌های کنونی هوش مصنوعی، و معیارهای ارزیابی ارائه می‌دهد.»

میچل در توضیح خلأ کشف‌شده در توانایی کلیدی هوش مصنوعی، مطالعات میان‌رشته‌ای هوش مصنوعی و یادگیری تکاملی را امیدوارکننده می‌داند، این شاخه از پژوهش‌ها برای توسعه‌ رویکردهای جدید هوش مصنوعی از شیوه‌ یادگیری کودکان الهام می‌گیرند.

با این اوصاف، به نظر می‌رسد، پیدا‌کردن معماری مناسب برای ساخت هوش‌های مصنوعی‌ که قادر به تفکر انتزاعی و استنتاج شباهت باشند، همچنان بدون پاسخ باقی می‌ماند. پیشتازان یادگیری عمیق معتقدند که در آینده شبکه‌های عصبی بزرگ‌تر و بهتر به تمام کارکردهای هوش انسان می‌رسند. برخی دیگر بر این باورند که یادگیری عمیق را باید با هوش مصنوعی نمادین ادغام کرد.

در این میان، آن‌چه قطعیت دارد این است که کاربردهای هوش مصنوعی روز‌به‌روز گسترده‌تر می‌شوند و به همین خاطر، می‌بایست سیستم‌های مقاومی ساخت که با هوش انسانی سازگار بوده و کارکرد و حتی شکستشان پیش‌بینی‌پذیر باشد.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

میانگین امتیاز / ۵. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]