پوشش رسانه‌ای جیتکس ۲۰۲۴ | با ما همراه باشید

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 شفافیت، راهکار مشکلات جعبه سیاه هوش مصنوعی

شفافیت، راهکار مشکلات جعبه سیاه هوش مصنوعی

زمان مطالعه: 3 دقیقه

در این مطلب به راهکارهایی برای مشکلات جعبه سیاه هوش مصنوعی اشاره خواهیم کرد. مسائل مربوط به جعبه سیاه هوش مصنوعی اعتماد کاربران به تصمیمات الگوریتم‌ها را به خطر انداخته است. همزمان با پیشرفت‌های روزافزون در عرصه هوش مصنوعی، متخصصان در تلاش‌اند رویکرد جعبه‌ شیشه‌ای را در میان توسعه‌گرها ترویج دهند.

کلمه جعبه سیاه موذیانه به نظر می‌رسد، ولی تصویر درستی از واقعیت نشان می‌دهد. متخصصان دائماً در مورد خطرات بالقوه هوش مصنوعی غیرشفاف، از جمله سوگیری و ملاحظات اخلاقی، هشدار می‌دهند.

با این تفاسیر، در حال حاضر، جعبه سیاه رویکرد اصلی مدلسازی یادگیری عمیق است. در این رویکرد، میلیون‌ها نمونه (نقطه‌داده) به الگوریتم تغذیه می‌شوند. سپس الگوریتم با تشخیص روابط همبستگی بین ویژگی‌های خاص داده‌ها، خروجی مورد نظر را تولید می‌کند. این فرآیند عمدتاً خودران است و به همین دلیل، متخصصان داده، برنامه‌نویس‌ها و کاربران به سختی می‌توانند آن را تفسیر کنند.

جعبه سیاه هوش مصنوعی در بسیاری از انواع یادگیری عمیق که در زندگی روزمره با آن‌ها سروکار داریم، همچون نرم‌افزارهای تشخیص چهره یا حتی سرویس‌های کارت اعتباری، تعبیه شده است. افزایش حساسیت‌ها به مدل‌های جعبه سیاه منجر به آغاز جنبشی در عرصه تحقیق و توسعه هوش مصنوعی‌های توضیح‌پذیر شده است. سؤال محوری هوش مصنوعی توضیح‌پذیر این است که چطور می‌توان خروجی‌ مدل‌های هوش مصنوعی را قابل درک‌تر کرد؛ به بیان دیگر، هدف، خلق هوش مصنوعی‌هایی است که توضیحاتی معقول و قابل رهگیری برای همه تصمیمات‌شان داشته باشند. با این حال، پیچیدگی ارتباطات بین داده‌ها که تنها هوش مصنوعی می‌تواند تشخیص دهد، این کار را با چالش روبرو می‌کند.

شفاف‌سازی جعبه

راه حل مسائل و مشکلات جعبه سیاه هوش مصنوعی به پاکسازی داده‌ها خلاصه نمی‌شود. در حال حاضر، بیشتر ابزارهای هوش مصنوعی توسط شبکه‌های عصبی پشتیبانی می‌شوند که رمزگشایی‌شان کار آسانی نیست. اعتماد به شرکت و فرآیند آموزشی آن می‌تواند نقطه شروع این مسیر باشد. اما متخصصان معتقدند راهکار واقعی این مشکلات، تغییر رویه آموزشی به رویکردی است که با نام جعبه سفید یا «جعبه شیشه‌ای هوش مصنوعی» شناخته می‌شود.

مدلسازی جعبه سفید مستلزم در دست داشتن داده‌های آموزشی قابل اعتماد و معتبری است که توضیح، تغییر و مطالعه‌شان برای تحلیل‌گرها امکان‌پذیر باشد. تنها بدین طریق است که می‌توان اعتماد کاربران را به تصمیم‌گیری اخلاقی جلب کرد. بدین ترتیب، الگوریتم‌های هوش مصنوعی توضیح‌پذیر شده و قبل از این‌که تصمیماتی مربوط به انسان‌ها بگیرند، اعتبار و دقت‌شان تحت آزمایشاتی بسیار دقیق تأیید شده است.

سانکار نارایانان، مسئول اجرایی ارشد شرکت هوش مصنوعی فرکتال آنالیتیکس، می‌گوید: «هوش مصنوعی باید قابل رهگیری و توضیح‌پذیر باشد. این فناوری باید قابل اعتماد، بدون سوگیری و مقاوم باشد تا از آسیب خطاهای احتمالی در طول چرخه زندگی هوش مصنوعی در امان بماند.» توضیح‌پذیری، پایه و اساس هوش مصنوعی اخلاقی است. با درک فرآیند تصمیم‌گیری، می‌توانیم بدون نگرانی در مورد سوگیری و عواقب آن، بیشتر از قبل برای حل مسائل و ارتقای جامعه از هوش مصنوعی بهره بگیریم. در این صورت، حتی در صورت مواجهه با خطا، دلیلش را می‌دانیم و می‌توانیم منشأ آن (داده‌های آموزشی یا منبع کد داخلی) را اصلاح کنیم.

به عقیده نارایانان، مشکل اصلی مدلسازی در حال حاضر این است که هوش مصنوعی، صرفاً فرآیند پردازش اطلاعات انسان‌ها را تقلید می‌کند. این در حالی است که طبق تحقیقات اقتصاددانان، شیوه تفکر انسان‌ها اغلب غیرمنطقی و توضیح‌ناپذیر می‌باشد.

وی ادامه می‌دهد: «ما انسان‌ها حتی اگر نتوانیم به صورت منطقی فرآیند تفکرمان را توضیح دهیم بر آن تکیه می‌کنیم؛ این دقیقاً همان اتفاقی است که در جعبه سیاه می‌افتد.»

با این وجود، انتخاب بهترین داده‌های ورودی و نظارت بر آن‌چه داخل جعبه اتفاق می‌افتد در ارتقای هوش مصنوعی اخلاقی و کمرنگ کردن نگرانی‌های موجود در مورد عدم شفافیت این فناوری، نقش مهمی ایفا می‌کند.

ورود متغیر نسانی

کلید موفقیت جعبه شیشه‌ای را می‌توان افزایش تعامل انسان‌ها با الگوریتم دانست. جانا اگرز، مدیرعامل شرکت هوش مصنوعی نارا لاجیکز در بوستون، توضیح می‌دهد: «توسعه‌ و پیاده‌سازی جعبه سیاه هوش مصنوعی تحت تأثیر سوگیری انسانی و سوگیری داده‌ای قرار می‌گیرد. اولین گام در راستای دستیابی به توضیح‌پذیری و شفافیت، ارائه بافت و زمینه‌ای کلی به الگوریتم و به کاربران است؛ بدین منظور باید اطلاعاتی کلی در مورد داده‌های آموزشی و پارامترهای به کاررفته در الگوریتم‌ها به افراد ارائه شود.»

گام دیگر در جهت حل مشکلات جعبه سیاه هوش مصنوعی، تحلیل محتوای ورودی و خروجی به منظور درک بهتر فرآیند تصمیم‌گیری است. با شفاف شدن این فرآیند، اخلاقیات انسانی در آن نمود پیدا می‌کند.

اگرز می‌گوید: «بسیاری اوقات هوش مصنوعی در اشتباه است و حق با انسان‌هاست. باید آمادگی پذیرش این موارد را داشته باشیم.»

شفاف‌سازی جعبه سیاه هوش مصنوعی به معنی استفاده از مباحث ساده و قابل فهم علوم داده به منظور ایجاد یک متودولوژی توضیح‌پذیر برای انسان‌هاست، به نحوی که فرآیند تصمیم‌گیری برنامه، از جمله عواملی که در آن نقش داشته‌اند و ضریب اهمیت آن عوامل، به صورت کلی مشخص و آشکار شوند.

برایان دی‌الساندرو، رئیس علوم داده شرکت نرم‌افزارهای هوش مصنوعی اسپارک بیاند، معتقد است: «در بحث در مورد توضیح‌پذیری، باید مقیاس شناختی انسان‌ها را در نظر داشته باشیم. بیشتر افراد به راحتی می‌توانند قانونی که پنج یا شش عامل در آن نقش دارند را درک کنند. اما اگر از این مقیاس فراتر برویم، مباحث آنقدر پیچیده می‌شوند که فهم‌شان کار آسانی نخواهد بود.»

مشکلات جعبه سیاه

آینده هوش مصنوعی و اخلاقیات

اخیراً بحث‌های فراوانی در مورد سوگیری هوش مصنوعی، ملاحظات اخلاقی و مباحث پاسخگویی و مسئولیت‌پذیری سر گرفته‌اند. فروشندگان، مهندسان و کاربران هریک می‌توانند سهم خود را در این مسیر ایفا کنند، اما نکته اینجاست که شناسایی و حل این نوع مشکلات جعبه سیاه هوش مصنوعی کار دشواری است.

جعبه سیاه هوش مصنوعی، دست برنامه‌نویسان را در ارزیابی سوگیری و غربال و حذف محتوای نامناسب می‌بندد، چون معلوم نیست کدام قسمت از ورودی برای تولید خروجی به کار می‌رود.

به گفته دلساندرو، گاهی اوقات نحوه جمع‌آوری داده‌ها به شکلی است که سوگیری ایجاد می‌کند. ماهیت جعبه سیاه، احتمال تکرار و تشدید این مشکلات را افزایش می‌دهد.

به عنوان نمونه می‌توان به مشکلی که برای آمازون پیش آمد اشاره کرد؛ الگوریتم استخدامی آمازون تقاضانامه‌های شغلی ده سال را تجزیه و تحلیل کرد تا ویژگی‌های کارمندان برتر را به صورت خودکار تشخیص داده و متقاضیان جدید را با تکیه بر همین استانداردها بسنجد و امتیازدهی کند. در سال 2018، این ابزار سرتیتر خبرها را به خود اختصاص داد، چون مشخص شد به خاطر مسائلی از قبیل شکاف پرداختی و سوگیری جنسیتی در مشاغل حوزه فناوری، الگوریتم به نفع متقاضیان مرد سوگیری داشته است.

در حال حاضر، شرکت‌هایی که با هوش مصنوعی سروکار دارند به دنبال دستورالعمل‌های اخلاقی در جمع‌آوری داده و به کارگیری این فناوری هستند. در مه 2019، اتحادیه اروپا با انتشار بخشنامه‌ای استاندارد، تعریف جامعی از هوش مصنوعی اخلاقی ارائه داد. متخصصان این دستاورد را گام بزرگی در جهت حل مسئله جعبه سیاه هوش مصنوعی می‌دانند.

نارایانان می‌گوید: «بخشنامه اتحادیه اروپا در مورد هوش مصنوعی قابل اعتماد، در سراسر دنیا پیشگام بوده است. این بخشنامه از کسب و کارها می‌خواهد به متخصصان اعتماد کرده و از ارائه‌دهندگان غیرحرفه‌ای سرویس‌ها که خود را به نام شرکت‌های هوش مصنوعی جا زده‌اند دوری کنند.»

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]