سه توانایی کلیدی هوش مصنوعی که در آن به چشم نمیخورد
طی دهه اخیر، یادگیری عمیق مسیر روبهرشدی را پشت سر گذاشته و از قرار داشتن بهعنوان یکی از شاخههای امیدوارکننده حوزه هوش مصنوعی، به ستون اصلی بسیاری از نرمافزارها تبدیل شده است. باوجوداین و علیرغم تمام پیشرفتها، مشکلات این فناوری همچنان از بین نرفته و پابرجاست. ملانی میچل، استاد مؤسسه سانتا فی و نویسنده کتاب «Artificial Intelligence: A Guide for Thinking Humans»، برجستهترین این مشکلات را نبود سه قابلیت عمده درک معنی، تفکر انتزاعی و استخراج شباهت میداند.
میچل، طی یکی از سمینارهای اخیر مؤسسه تحقیقات پیشرفته هوش مصنوعی، در این خصوص توضیح داده که چرا قابلیت استخراج شباهت و تفکر انتزاعی کلید ساخت سیستمهای هوش مصنوعی مقاوم هستند؟ به گفته او بحث تفکر انتزاعی علیرغم تاریخچه طولانی که تاکنون داشته، مورد مطالعه و بررسی دقیق و کافی قرار نگرفته است.
درحالیکه فعالان هوش مصنوعی تمامی تلاشها و منابع خود را بهصورت روزافزون به رویکردهای دادهمحور مبتنی بر یادگیری عمیق اختصاص میدهند، تا بر توانایی کلیدی هوش مصنوعی بیفزایند، به عقیده میچل عملکرد شبهانسانی شبکههای عصبی صرفاً نتیجه تقلیدی سطحی داشته و فاقد کلیدیترین مؤلفههای هوشی است.
نقص در درک معنی توسط هوش مصنوعی
میچل در مصاحبهای با VentureBeat توضیح داده است: «در ادبیات پژوهشی علوم شناختی تعاریف متعددی از معنا به چشم میخورد، اما به شخصه تعریف لارنس بارسالو را در این خصوص ترجیح میدهم که میگوید، معنا قابلیت و تمایل به تولید مفاهیم گوناگون از یک مقوله خاص است.»
بهعنوانمثال، وقتی به مقولهای همچون «درخت» فکر میکنیم، انواع مختلفی از درخت اعم از واقعی و تخیلی، حقیقی و کارتونی، عینی و استعارهای، در ذهنمان نقش میبندد. ممکن است علاوه بر درختهای طبیعی، به درخت خانوادگی (تاریخچه نسلهای خانواده) و یا درخت سازمانی (سلسلهمراتب سازمانها) نیز فکر کنیم.
وی در خصوص نقص در درک معنی توسط هوش مصنوعی اضافه میکند: «درواقع، نوعی تشابه ذاتی بین همه این موارد وجود دارد که میتوان به «درخت بودنشان» نسبت داد. بنابراین میتوان گفت معنا یک مدل ذهنی است، که بخشی از شبکهای گستردهتر متشکل از معانی دیگر را در بر میگیرد.»
بااینکه بیشتر متخصصان و پژوهشگران هوش مصنوعی شبکههای عصبی را دارای قابلیت یادگیری معنا میدانند، نکته کلیدی آن است که این معماریهای محاسباتی واقعاً آموزشپذیر هستند. البته ذهن انسانها مدلهایی «مولد» میسازد که قادر به شکلگیری مفاهیم انتزاعی و نوین هستند، درحالیکه سیستمهای یادگیری عمیق مدلهای «تمایزی» هستند که تنها تفاوتهای جزئی میان مقولههای متفاوت را میآموزند.
بهعنوانمثال، مدل یادگیری عمیقی که روی تعداد زیادی تصویر پل آموزش دیده، تنها قادر به تشخیص پلهای جدید است، اما نمیتواند مقولههایی را که مبتنی بر معنایی مشابه هستند (همچون تکه چوبی که دو طرف رودخانه را به هم وصل کرده یا مورچههایی که کنار هم قرار گرفته و پل ساختهاند) را تشخیص دهد یا به مقولههای انتزاعی همچون «پل زدن» بر شکاف طبقاتی اجتماعی بیندیشد.
درحقیقت، مدلهای تمایزی چندین مقوله از پیش تعیینشده برای خود دارند و سیستم آنها بهجای اینکه دانش خود را در موقعیتهای جدیدتری به کار گیرد، بر اساس همان مقولههای از پیش تعیینشده تصمیمگیری میکند.
میچل در خصوص نبود این توانایی کلیدی هوش مصنوعی میگوید: «افراد قابلیت استنتاج شباهتها را دارند. برای مثال، اگر شخصی به تصویر ریه انسانی دیگر نگاه کند و ساختار شاخه-شاخه آن را ببیند، ریه را بهعنوان درخت در نظر نمیگیرد، اما میتواند شباهتهای موجود را در سطحی انتزاعی دریابد. بهعبارتدیگر، ما در استنتاج شباهت بین دو یا چند مقوله اطلاعاتی را که از قبل داریم، وارد موقعیت جدید میکنیم.»
عدم دستیابی به تفکر انتزاعی در هوش مصنوعی
شاید از خودتان بپرسید اهمیت مباحث مطرحشده در این مطلب چیست؟ در جواب باید بگوییم دنیای واقعی پر از موقعیتها و تجارب جدید است، با این اوصاف، باید بتوانیم با تکیه بر کمترین نمونههای ممکن یاد گرفته و بین مشاهدات قبلی و جدید ارتباط برقرار کنیم. متأسفانه بدون قابلیت تفکر انتزاعی و استنتاج شباهت مجبور میشویم، برای رویارویی با هر موقعیت جدیدی، بینهایت نمونه آموزشی ببینیم.
آنچه تا اینجای مطلب مطرح شد، درواقع یکی از مشکلاتی است که شبکههای عصبی یادگیری عمیق از آن رنج میبرند. سیستمهای یادگیری عمیق بهشدت به مشاهدات «خارج از توزیع» یا OOD حساس هستند، منظور از مشاهدات OOD نمونههایی از یک مقاله خاص هستند که با نمونههای آموزشی مدل تفاوت دارند. بهعنوانمثال، شبکه عصبی کانولوشنی را در نظر بگیرید که روی دیتاست ImageNet آموزش دیده است، این شبکه در رویارویی با تصاویر دنیای واقعی که میزان نور یا زاویه دید متفاوتی از دیتاست آموزشی دارند، با مشکل مواجه خواهد بود و عملکردش بهشدت افت میکند. یک سیستم یادگیری عمیق تقویتی نیز که برای انجام یک بازی کامپیوتری خاص آموزشدیده با کوچکترین تغییری در بازی با شکست مواجه میشود.
علاوه بر اینها، مدلهای یادگیری عمیق میتوانند ویژگیهای اشتباهی را از روی نمونههای آموزشی استخراج کنند. میچل و همکارانش طی یکی از مطالعات خود، شبکهای عصبی را مورد بررسی قرار دادند که برای دستهبندی تصاویر به دو گروه «حیوان» و «غیرحیوان» آموزش دیده بود. نتیجه این آزمایشات بر عدم دستیابی به تفکر انتزاعی در هوش مصنوعی صحه گذاشت و نشان داد که مدل، بهجای تشخیص حیوانات، تصاویری را شناسایی میکند که پسزمینه مات دارند، زیرا در دیتاست آموزشی، حیوانات در مرکز تصاویر قرار داشتند و پسزمینه مات بوده، درحالیکه در سایر تصاویر بخش ماتی وجود نداشت.
میچل در توضیح بیشتر نقص در توانایی کلیدی هوش مصنوعی توضیح میدهد: «مدلهای تمایزی راحتتر از مدلهای مولد میتوانند تقلب کنند، بهعنوانمثال امتحانات چندگزینهای و تشریحی را در نظر بگیرید، در این مدل امتحانات حتی اگر بخواهید از بین چند گزینه یکی را انتخاب کنید، احتمالاً بدون درک کامل سؤال هم میتوانید به نتیجه برسید، اما در سؤالات تشریحی تنها خودتان باید پاسخ را تولید کنید و اینجاست که کار سختتر میشود.»
تفکر انتزاعی و استنتاج تشابه در یادگیری عمیق
جامعه یادگیری عمیق گامهای مهمی برای حل مشکلات مذکور برداشته است. یکی از دستاوردهای این تلاشها، ظهور حوزه پژوهشی هوش مصنوعی توضیحپذیر بوده، که سعی دارد از طریق تکنیکهای مختلف، ویژگیهایی که شبکههای عصبی میآموزند و شیوه تصمیمگیری آنها را تعیین نماید.
از سوی دیگر، پژوهشگران در تلاشاند، تا با ساخت دیتاستهای آموزشی متنوع و متوازن مطمئن شوند که مقاومت سیستمهای یادگیری عمیق در موقعیتهای گوناگون همچنان حفظ میشود. هدف از حوزه یادگیری غیرنظارتی و خودنظارتی نیز این است که، شبکههای عصبی بتوانند بهجای تکیه بر دستهبندیهای از پیش تعیینشده، با استفاده از دادههای بدون برچسب بیاموزند و به جواب پرسشهای احتمالی برسند.
یکی از حوزههایی که پیشرفت چشمگیری را در این زمینه تجربه کرده، مدلهای بزرگ زبانی یا LLM هستند. LLMها شبکههای عصبی به شمار میروند که روی صدها گیگابایت داده متنی بدون برچسب آموزش میبینند. این مدلها معمولاً میتوانند بهشیوهای قابلقبول و قابلباور به تولید متن بپردازند و در مکالمات نیز شرکت کنند. برخی از متخصصان معتقدند که LLMها قابلیت فهم معنا را نیز دارند.
بااینحال، به عقیده میچل، اگر معنا را از نظر مفاهیم انتزاعی و قیاسی تعریف کنیم، این ادعا زیر سؤال میرود. برای اینکه نیاز به این توانایی کلیدی هوش مصنوعی را بهتر درک کنید به این مثال توجه کنید: انسانها میدانند مفهوم «به اضافه» تابعی است که دو مقدار عددی را با هم جمع میکند. مدلهای زبانی بزرگ همچون GPT-3 هم معمولاً میتوانند مسائل جمع ساده را انجام دهند، اما بسته به نوع بیان سؤال گاهی مرتکب اشتباهاتی میشوند، که شباهتی به خطاهای انسانی ندارد.
میچل این شواهد را گواه بر این میداند که LLMها درک مقاومی از مفهوم «به اضافه» ندارند و از مکانیزمهای دیگری برای حل مسائل خود استفاده میکنند. وی معتقد است: «درکل نمیتوان بهصورت قطعی تعیین کرد که LLMها واقعاً قابلیت درک معنا را دارند یا خیر.»
متخصصان بهتازگی چندین معیار ارزیابی طراحی کردهاند، تا ظرفیت سیستمهای یادگیری عمیق در تفکر انتزاعی و استنتاج شباهت را بسنجند. یکی از این معیارها RAVEN است، که مجموعهای از مسائلی را که ظرفیت تشخیص مفاهیمی همچون تکثر، شباهت، تفاوت در اندازه و تفاوت در موقعیت را دارند، ارزیابی میکند.
میچل در خصوص تفکر انتزاعی و استنتاج تشابه در یادگیری عمیق اضافه میکند: «معیارهای کنونی هوش مصنوعی و از جمله آن معیارهایی که برای سنجش تفکر انتزاعی و استنتاج شباهت وجود دارند، قادر به سنجش ادراک واقعی ماشین نیستند و تشخیص نمیدهند که ماشینها با استفاده از میانبرهای نامعلوم و همبستگیهای آماری بیاساس به نتیجه میرسند. بهعلاوه، بیشتر این معیارها صرفاً دیتاست را به دو دسته آموزشی و آزمایشی تقسیم میکنند و قابلیت تعمیم مدل را به شیوه درست و سیستماتیک نمیسنجند.»
بدنه استدلال انتزاعی یا ARC یک معیار ارزیابی دیگر است که به دست فرانسوا شالت، پژوهشگر هوش مصنوعی، تدوین شده. دلیل اهمیت ARC در این است که تعداد بسیار کمی نمونه آموزشی داشته و دیتاست آزمایشی آن از چالشهایی تشکیل شدهاند که از دیتاست آموزشی متفاوت هستند. یکی از رقابتهای پلتفرم یادگیری ماشینی و علوم داده Kaggle به این موضوع پرداخته است، اما این حوزه تاکنون پیشرفت چندانی نداشته است.
میچل میگوید: «معیار ARC راهی برای مقابله با مسائل و محدودیتهای کنونی هوش مصنوعی، و معیارهای ارزیابی ارائه میدهد.»
میچل در توضیح خلأ کشفشده در توانایی کلیدی هوش مصنوعی، مطالعات میانرشتهای هوش مصنوعی و یادگیری تکاملی را امیدوارکننده میداند، این شاخه از پژوهشها برای توسعه رویکردهای جدید هوش مصنوعی از شیوه یادگیری کودکان الهام میگیرند.
با این اوصاف، به نظر میرسد، پیداکردن معماری مناسب برای ساخت هوشهای مصنوعی که قادر به تفکر انتزاعی و استنتاج شباهت باشند، همچنان بدون پاسخ باقی میماند. پیشتازان یادگیری عمیق معتقدند که در آینده شبکههای عصبی بزرگتر و بهتر به تمام کارکردهای هوش انسان میرسند. برخی دیگر بر این باورند که یادگیری عمیق را باید با هوش مصنوعی نمادین ادغام کرد.
در این میان، آنچه قطعیت دارد این است که کاربردهای هوش مصنوعی روزبهروز گستردهتر میشوند و به همین خاطر، میبایست سیستمهای مقاومی ساخت که با هوش انسانی سازگار بوده و کارکرد و حتی شکستشان پیشبینیپذیر باشد.
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید