روشی جدید برای مقایسه شبکههای عصبی به کمک هوش مصنوعی
گروهی از پژوهشگران آزمایشگاه ملی لسآلاموس رویکردی جدید برای مقایسه شبکههای عصبی ارائه دادهاند که با نگاه به «جعبه سیاه» هوش مصنوعی، درک رفتار شبکهها را امکانپذیر میسازد. شبکههای عصبی الگوهای موجود در دیتاستها را شناسایی میکنند؛ از جمله کاربردهای گوناگون این فناوریها میتوان به دستیارهای مجازی، سیستمهای تشخیص چهره و خودروهای خودران اشاره کرد.
هایدن جونز، یکی از اعضای گروه مطالعات پیشرفته سیستمهای سایبری مؤسسه لسآلاموس، توضیح میدهد: «جامعه پژوهشگران هوش مصنوعی درک کاملی از کارکرد شبکههای عصبی ندارند. تا جایی که میدانیم، این شبکهها نتایج خوبی به دست میدهند، اما اینکه چطور و چرا به این نتایج میرسند، همچنان ناشناخته باقی میماند. رویکرد جدیدی که معرفی کردهایم شبکههای عصبی را با هم مقایسه میکند. این مقایسه گامی مهم در راستای دستیابی به درک بهتر از ریاضیات زیربنایی هوش مصنوعی است.»
جونز نویسنده اول مقاله است که بهتازگی تحت عنوان «If You’ve Trained One You’ve Trained Them All: Inter-Architecture Similarity Increases With Robustness» در کنفرانس Uncertainty in Artificial Intelligence ارائه شد. مقاله مذکور علاوه بر بررسی شباهت بین شبکهها، در تشخیص رفتار شبکههای عصبی مقاوم نیز نقشی مهم ایفا میکند.
شبکههای عصبی عملکرد خوبی دارند، اما آسیبپذیر هستند. بهعنوان مثال، شبکههای عصبی بهکاررفته در خودروهای خودران را در نظر بگیرید که برای تشخیص علائم راهنمایی و رانندگی به کار میروند. در شرایط ایدهآل، عملکرد شبکهها کاملاً قابلقبول است، اما کوچکترین اختلالی، مثل وجود برچسب روی تابلو، باعث میشود شبکهها علامت را به اشتباه تشخیص دهند.
آموزش تخاصمی؛ جدیدترین راهکار تقویت شبکههای عصبی
پژوهشگران برای تقویت شبکههای عصبی به دنبال راهی برای افزایش سطح مقاومت آنها بودهاند. یکی از جدیدترین رویکردهای این حوزه، «حمله» به شبکههای عصبی طی مرحله آموزش است. در این رویکرد، متخصصان بهصورت عمدی اختلالات متعددی ایجاد میکنند و به هوش مصنوعی یاد میدهند تا آنها را نادیده بگیرد. این فرایند، تحت عنوان آموزش تخاصمی شناخته میشود و فریب شبکهها را دشوارتر میکند.
جونز، جیکوب اسپرینگر و گرت کنیون، همکارانش در لسآلاموس و جاستون مور، استاد راهنمایش، معیار جدیدی را که برای شباهت شبکهها طراحی کردهاند، روی شبکههای عصبی که بهصورت تخاصمی آموزش دیده بودند، به اجرا درآوردند. یافتهها نشان دادند که آموزش تخاصمی باعث میشود شبکههای عصبی حوزه بینایی کامپیوتری، فارغ از معماریشان، به بازنماییهای بسیار مشابه از دادهها دست یابند و با افزایش شدت حملات، این همگرایی نیز بیشتر میشود. جونز در این باره میگوید: «ما دریافتیم که وقتی به شبکههای عصبی یاد میدهیم علیه حملات تخاصمی مقاوم باشند، عملکردشان به یکدیگر شباهت پیدا میکند.»
تاکنون جامعه فعالین صنعت و دانشگاه با اقدامات گسترده، سعی در پیداکردن «معماری ایدهآل» برای شبکههای عصبی داشتهاند، اما یافتههای پژوهشگران لسآلاموس نشان میدهد که آموزش تخاصمی این فضای جستوجو را به میزان چشمگیری کوچک میکند. بنابراین جامعه پژوهشگران هوش مصنوعی دیگر مجبور نیستند زمان و تلاش زیادی به پیداکردن معماریهای جدید اختصاص دهند، چون میدانند که آموزش تخاصمی باعث میشود معماریهای گوناگون به راهکارهای مشابه برسند.
جونز در انتها اضافه میکند: «با تکیه بر این نکته که شبکههای عصبی مقاوم شبیه به هم هستند، راحتتر میتوانیم کارکردشان را درک کنیم؛ شاید حتی بتوانیم شیوه ادراک در انسانها و حیوانات دیگر را نیز بفهمیم.»
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید