اعتماد به هوش مصنوعی راحت شد: سیستمی که قابل اعتماد بودنش را میسنجد
اگر اسکاینت Skynet تصمیم میگرفت پایان متفاوتی برای فیلم ترمیناتور در نظر بگیرد، به نظرتان آن پایان چطور بود؟ شاید دانشمندان با ساخت نوعی از شبکههای عصبی که قابلیت تشخیص غیر قابل اعتماد بودن خودش را داشت، مردم را از آخرالزمانی که هوش مصنوعی ساخته بود، نجات میدادند. در واقع اعتماد به هوش مصنوعی اهمیت ویژهای در بکارگیری آن دارد.
شبکههای عصبی یادگیری عمیق برای تقلید از مغز انسان با ارزیابی فاکتورهای متعدد، ساخته شدند. روش کار این شبکههای عصبی بدین صورت است که الگوهایی برای حجم گستردهای از دادهها تعریف میکنند که انسانها ظرفیت تحلیل آن را ندارند.
شاید اسکاینت به پایانی متفاوت فکر نکرده باشد، اما هوش مصنوعی پیش از این اقداماتی در زمینه بهینهسازی زندگی انسانها از قبیل تشخیص پزشکی یا هدایت خودکار داشته است. این که چنین اقداماتی انجام شده بدین مفهوم است که دانشمندان در زمینه اعتماد به هوش مصنوعی پیشرفت خوبی داشته و آن را به اندازه کافی دقیق میدانند که چنین مسئولیتهای بزرگی را به آن بسپارند. برای پیشروی بیشتر به سمت این هدف اما سیستم جدید شبکههای عصبی توانایی بالابردن سطح اعتماد با انجام پیشبینیهای دقیقتر را دارد.
الکساندر امینی، دانشمند حوزه کامپیوتر از MIT آزمایشگاه هوش مصنوعی و علوم کامپیوتری MIT Computer Science and Artificial Intelligence Laboratory (CSAIL)، در این باره میگوید:«ما نیاز به این شرایط داریم که هم مدلهای کارامد داشته باشیم و هم بدانیم چه زمانی نمیتوانیم به آن مدلها اعتماد کنیم».
«رگرسیون مشهود عمیق Deep Evidential Regression » نامی است که برای خودآگاهی از قابل اعتماد بودن در نظر گرفته شده و معیار برای آن کیفیت دادههای موجودی است که باعث کار کردن آن میشود. هرچه دادهها دقیقتر و آموزش دیدهتر باشند، پیشبینیهای آینده دقیقتر و در نتیجه اعتماد به هوش مصنوعی بیشتر خواهد شد.
تیم تحقیقات، خودآگاهی از قابل اعتماد بودن در سیستم جدید را با اشاره به خودروهای خودران در شرایطی که باید تصمیم بگیرند از یک تقاطع رد شوند یا توقف کنند، توصیف کرده است. اینکه سطح اعتماد به هوش مصنوعی در سیستم جدید افزایش یافته بدین معنی است که حتی توصیههایی برای قابل اعتمادتر شدن هم نادیده گرفته نشده است.
در حالی که پیش از این هم تدابیری برای محافظت از شبکههای عصبی در نظر گرفته شده بود، نکتهای که باعث میشود سیستم جدید نام برده شده را متفاوت از آنها بدانیم این است که سرعت خیلی بالایی دارد و بدون نیازهای بیش از اندازه محاسباتی با یک بار اجرا به جای چندین بار میتواند سطح قابل اعتماد بودن را افزایش دهد.
دنیلا روس، دانشمند حوزه کامپیوتر، در این باره میگوید:«این ایده مهم است و قابلیت اجرا به صورت گسترده را دارد. میتوان از آن برای ارزیابی محصولاتی که تکیه بر مدلهای آموزش دیده دارند هم استفاده کرد. با تخمین زدن میزان غیرقابل اعتماد بودن یک مدل آموزش دیده، میتوانیم متوجه شویم که میزان چه اندازه اشتباه را از یک مدل میتوانیم داشته باشیم و چه داده از قلم افتادهای میتواند باعث بهبود عملکرد آن مدل شود».
برای قضاوت عملکرد این محصول محققان معیار را عمیق شدن در بخشهای مختلف یک تصویر قرار دادند، همانطور که برای قضاوت یک وسیله خودران میزان مسافت طی شده معیار خوبی است. شبکه در مقایسه با تنظیمات موجود، عملکردی قابلقبول داشت و همچنین میزان سنجش قابل اعتماد بودن خودش هم قابل توجه بود. هربار که کمترین اطمینان را از قابل اعتماد بودن خودش داشت، منجر به اشتباه و کمتر عمیق شدن در تصویر هم میشد.
به عنوان یک امتیاز ویژه این سیستم میتوان به این قابلیت اشاره کرد که هربار با تصویری مواجه میشد که داده آموزش دیدهای درباره آن نداشت، اعلام میکرد و این بسیار مهم است. تصور کنید اگر در علم پزشکی استفاده شود، در این شرایط اعلام میکند که یک پزشک باید تصمیمگیری نهایی را داشته باشد.
حتی اگر یک شبکه عصبی دقت عمل 99 درصدی داشته باشد، همان یک درصد باقیمانده بسته به شرایط میتواند عواقبی جدی در پی داشته باشد. محققان معتقدند این سیستم جدید که قابلیت ارزیابی میزان قابل اعتماد بودن خودش را دارد، میتواند باعث افزایش امنیت شده و نیاز به بررسی دوباره را از بین ببرد.
با این حال نباید در زمینه اعتماد به هوش مصنوعی زیادهروی کرد و چالشهای عملیاتی آن را نادیده گرفت. امینی میگوید:«اخیرا شاهد تولید بسیاری از این شبکههای عصبی در آزمایشگاههای مختلف و ورودشان به دنیای واقعی بودهایم که البته برای زندگی انسان خطراتی داشتهاند. هر یک از کاربران این روش، چه پزشک باشند و چه یک فرد معمولی که روی صندلی یک وسیله نقلیه نشسته، باید از غیر قابل اعتماد بودن آن مطلع باشد».