40 گام به سوی آینده‌ای هوشمند - مجموعه وبینارهای رایگان در حوزه هوش مصنوعی
Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 اعتماد به هوش مصنوعی راحت‎ شد: سیستمی که قابل اعتماد بودنش را می‌‎سنجد

اعتماد به هوش مصنوعی راحت‎ شد: سیستمی که قابل اعتماد بودنش را می‌‎سنجد

اگر اسکای‌نت Skynet تصمیم می‌گرفت پایان متفاوتی برای فیلم ترمیناتور در نظر بگیرد، به نظرتان آن پایان چطور بود؟ شاید دانشمندان با ساخت نوعی از شبکه‌های عصبی که قابلیت تشخیص غیر قابل اعتماد بودن خودش را داشت،‌ مردم را از آخرالزمانی که هوش مصنوعی ساخته بود، نجات می‌دادند. در واقع اعتماد به هوش مصنوعی اهمیت ویژه‌ای در بکارگیری آن دارد.

شبکه‌های عصبی یادگیری عمیق برای تقلید از مغز انسان با ارزیابی فاکتورهای متعدد، ساخته شدند. روش کار این شبکه‌های عصبی بدین صورت است که الگوهایی برای حجم گسترده‌ای از داده‌ها تعریف می‌کنند که انسان‌ها ظرفیت تحلیل آن را ندارند.

شاید اسکای‌نت به پایانی متفاوت فکر نکرده باشد، اما هوش مصنوعی پیش از این اقداماتی در زمینه بهینه‌‎سازی زندگی انسان‌ها از قبیل تشخیص پزشکی یا هدایت خودکار داشته است. این که چنین اقداماتی انجام شده بدین مفهوم است که دانشمندان در زمینه اعتماد به هوش مصنوعی پیشرفت خوبی داشته و آن را به اندازه کافی دقیق می‌دانند که چنین مسئولیت‌های بزرگی را به آن بسپارند. برای پیشروی بیشتر به سمت این هدف اما سیستم جدید شبکه‌های عصبی توانایی بالابردن سطح اعتماد با انجام پیش‎بینی‌های دقیق‎تر را دارد.

اعتماد به هوش مصنوعی

الکساندر امینی، دانشمند حوزه کامپیوتر از MIT آزمایشگاه هوش مصنوعی و علوم کامپیوتری MIT Computer Science and Artificial Intelligence Laboratory (CSAIL)، در این باره می‎گوید:«ما نیاز به این شرایط داریم که هم مدل‌های کارامد داشته باشیم و هم بدانیم چه زمانی نمی‌توانیم به آن مدل‌ها اعتماد کنیم».

«رگرسیون مشهود عمیق Deep Evidential Regression » نامی است که برای خودآگاهی از قابل اعتماد‌ بودن در نظر گرفته شده و معیار برای آن کیفیت داده‌های موجودی است که باعث کار کردن آن می‌شود. هرچه داده‌ها دقیق‎تر و آموزش دیده‌تر باشند، پیش‌بینی‌های آینده دقیق‌تر و در نتیجه اعتماد به هوش مصنوعی بیشتر خواهد شد.

تیم تحقیقات، خودآگاهی از قابل اعتماد بودن در سیستم جدید را با اشاره به خودروهای خودران در شرایطی که باید تصمیم بگیرند از یک تقاطع رد شوند یا توقف کنند، توصیف کرده است. این‌که سطح اعتماد به هوش مصنوعی در سیستم جدید افزایش یافته بدین معنی است که حتی توصیه‌هایی برای قابل ‌اعتمادتر شدن هم نادیده گرفته نشده است.

در حالی که پیش از این هم تدابیری برای محافظت از شبکه‌های عصبی در نظر گرفته شده بود، نکته‌ای که باعث می‌شود سیستم جدید نام برده شده را متفاوت از آن‌ها بدانیم این است که سرعت خیلی بالایی دارد و بدون نیازهای بیش از اندازه محاسباتی با یک بار اجرا به جای چندین بار می‌تواند سطح قابل اعتماد بودن را افزایش دهد.

دنیلا روس، دانشمند حوزه کامپیوتر، در این باره می‌گوید:«این ایده مهم است و قابلیت اجرا به صورت گسترده را دارد. می‌توان از آن برای ارزیابی محصولاتی که تکیه بر مدل‌های آموزش دیده دارند هم استفاده کرد. با تخمین زدن میزان غیرقابل اعتماد بودن یک مدل آموزش دیده، می‌توانیم متوجه شویم که میزان چه اندازه اشتباه را از یک مدل می‌توانیم داشته باشیم و چه داده از قلم افتاده‎ای می‎تواند باعث بهبود عملکرد آن مدل شود».

برای قضاوت عملکرد این محصول محققان معیار را عمیق شدن در بخش‌های مختلف یک تصویر قرار دادند، همان‌طور که برای قضاوت یک وسیله خودران میزان مسافت طی شده معیار خوبی است. شبکه در مقایسه با تنظیمات موجود، عملکردی قابل‌قبول داشت و همچنین میزان سنجش قابل اعتماد بودن خودش هم قابل توجه بود. هربار که کمترین اطمینان را از قابل اعتماد بودن خودش داشت، منجر به اشتباه و کمتر عمیق شدن در تصویر هم می‎شد.

به عنوان یک امتیاز ویژه این سیستم می‌توان به این قابلیت اشاره کرد که هربار با تصویری مواجه می‌شد که داده آموزش دیده‌ای درباره آن نداشت، اعلام می‌کرد و این بسیار مهم است. تصور کنید اگر در علم پزشکی استفاده شود، در این شرایط اعلام می‌کند که یک پزشک باید تصمیم‌گیری نهایی را داشته باشد.

حتی اگر یک شبکه عصبی دقت عمل 99 درصدی داشته باشد، همان یک درصد باقی‌مانده بسته به شرایط می‌تواند عواقبی جدی در پی داشته باشد. محققان معتقدند این سیستم جدید که قابلیت ارزیابی میزان قابل اعتماد بودن خودش را دارد، می‌تواند باعث افزایش امنیت شده و نیاز به بررسی دوباره را از بین ببرد.

با این حال نباید در زمینه اعتماد به هوش مصنوعی زیاده‎روی کرد و چالش‌های عملیاتی آن را نادیده گرفت. امینی می‌گوید:«اخیرا شاهد تولید بسیاری از این شبکه‌های عصبی در آزمایشگاه‌های مختلف و ورودشان به دنیای واقعی بوده‌ایم که البته برای زندگی انسان خطراتی داشته‌اند. هر یک از کاربران این روش، چه پزشک باشند و چه یک فرد معمولی که روی صندلی یک وسیله نقلیه نشسته، باید از غیر قابل اعتماد بودن آن مطلع باشد».

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]