ابرهوش مصنوعی گوگل در راه است، اما نیاز به به بررسی اخلاقی دارد
امروزه، هیچکس نمیتواند قابلیتهای بیبدیل هوش مصنوعی را زیر سوال ببرد؛ پیشبینی خطر وقوع سیل، تشخیص بیماری و ترجمه فوری به زبانهای مختلف تنها گوشهای از قابلیتهای این فناوری است. پیشرفتهای حاصل آمده در شبکه های عصبی و قدرت رایانش قابل ملاحظه، این فرصت را در اختیار شرکتهای فناوری قرار داده تا مدلهای هوش مصنوعی فوقالعاده هوشمندی در یک دهه گذشته روانهی بازار کنند. ابرهوش مصنوعی گوگل هم به همین دلیل در حال توسعه است.
«جف دین» – رئیس بخش هوش مصنوعی شرکت گوگل – هفته گذشته در یکی از سخنرانیهای خود در کالیفرنیا در خصوص ابرهوش مصنوعی گوگل بیان کرد: «این تازه اول راه است. گوگل در حال توسعهی یک نوع فناوری هوش مصنوعی انعطافپذیر، سریع و چندمنظوره است که میتواند میلیونها کار انجام دهد. راهکار جدید گوگل که با نام Pathways شناخته میشود، بر آن است تا هوش مصنوعی در قالب یک الگوریتم قدرتمند و آگاه به همه چیز عمل کند. تیم ما از اجرای این پروژه به وجد آمده است.
این نوع سیستمهای اطلاعاتی که درک عمیقی از جهان دارند، این فرصت را در اختیارمان قرار خواهد داد تا برخی از بزرگترین مشکلات و چالشهای بشر را از پیش رو برداریم. برای نمونه، اگر این مدلها از دانش شیمی و فیزیک بهرهمند شوند، بستر مناسبی برای مهندسی داروها فراهم خواهد شد. همچنین، نظامهای آموزشی با ارائهی تدریس خصوصی کارآمدتر روند رو به رشدی را تجربه خواهند کرد. امید بر این است که مشکلات بسیار پیچیدهای از قبیل تغییرات اقلیمی نیز حل شوند چرا که زیرساختهای لازم برای مهندسی راهکارهای انرژی پاک در دسترس میباشد.»
مسئله اخلاق در ابرهوش مصنوعی گوگل
دین به خوشبینی معروف است، اما بسیاری از این موضوع ابراز نگرانی کردهاند که چه کسی مسئولیت طراحی و کنترل سیستمهای هوش مصنوعی جهان را بر عهده خواهد گرفت. طرح یادگیری ماشین گوگل با خروج «تیمنیت گبرو» و «مارگارت میشل» به طور دقیق مورد بررسی قرار گرفته است. این دو فرد روسای سابق تیم اخلاق هوش مصنوعی گوگل هستند. خانم گبرو این ادعا را به زبان آورده است: «دلیل اخراج من از شرکت گوگل این بود که مقالهای جنجالی درباره خطراتِ ناشی از ساخت مدلهای هوش مصنوعی یادگیری زبان نوشتم. این مدلها با مقادیر عظیمی از دادههای متنی آموزش داده میشوند.»
«کارن هائو» – از بخش MIT Tech Review – خاطرنشان کرده است: «چون هوش مصنوعی گوگل دادههای متنی را از اینترنت گردآوری میکند، همیشه این خطر وجود دارد که محتوای نژادپرستانه، جنسیتزده و غیراخلاقی به درون دادههای آموزشی رخنه کند.»
دین در پایان سخنرانیاش به گردآوری مسئولانه داده تاکید کرد، اما به جزئیات چالشهای اخلاقی پیش روی ابرهوش مصنوعی گوگل اشاره نکرد. این مسائل باعث شده تا تیر انتقادات به سوی دین و همکارانش گرفته شود. او اسلایدهایی درباره اصول هوش مصنوعی برای حاضران در کنفرانس نشان داد که در مقیاس کلی به این نگرانیها اشاره میکند. وی افزود: «مسائل و نگرانیهای مربوط به داده تنها یکی از مسئولیتهایی است که باید مورد توجه قرار گیرد. موضوعات مهم دیگری نیز وجود دارند که باید بررسی شوند.»
مسئولیتپذیری در فناوریهای هوش مصنوعی
دین زمانی در کنفرانس تِد شرکت کرد که منتقدان خواستار اِعمال کنترل بیشتر بر شرکتهای بزرگ فناوری هستند. منتقدان خواهان این هستند که سیستمهای هوش مصنوعی جهان با سختگیری بیشتری کنترل شوند و ابرهوش مصنوعی گوگل هم جزو همین سیستمهاست. یکی از این منتقدان بلافاصله پس از اتمام سخنرانی دین شروع به صحبت کرد. «ژیائووی آر. وانگ» – مدیر خلاقِ مجله فناوری Logic – به نوآوریهای عمومی تاکید داشت. وی این چنین گفت: «خوشبینی درباره هوش مصنوعی فقط زمانی تحقق مییابد که افراد جامعه خودشان درباره این فناوری تصمیم گیرند؛ نباید همه کارها را به افرادی مثل جف دین و شرکتهایی نظیر گوگل واگذار کرد. جنبش AI for Good بر آن است تا از قابلیتهای یادگیری ماشین برای حل بزرگترین مشکلات اجتماعی جهان استفاده کند.»
کریس اندرسن و گرِگ براکمن – همبنیانگذار گروه تحقیقات اخلاق هوش مصنوعی در شرکت OpenAI – نیز به پیامدهای ناخواستهی سیستمهای قدرتمند یادگیری ماشین اشاره کردند. براکمن بر این سناریو معتقد بود که انسانها در نقش مربی اخلاق هوش مصنوعی ظاهر میشوند. براکمن در ادامه بیان کرد: «میتوان ارزشهای مورد نظر را به سیستم هوش مصنوعی یاد داد. این اقدام در عین حال که ظرافت زیادی میطلبد، از اهمیت بسزایی نیز برخودار است. همانطور که به کودک یاد میدهید که خوب و بد را از یکدیگر تشخیص دهد، باید برخورد مشابهی با سیستمهای هوش مصنوعی داشته باشید. البته زمانی که آموزش ماشینها به پایان رسید، باید جانب احتیاط را در بهکارگیری آنها رعایت کرد.»
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید