Filter by دسته‌ها
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 ابرهوش مصنوعی گوگل در راه است، اما نیاز به به بررسی اخلاقی دارد

ابرهوش مصنوعی گوگل در راه است، اما نیاز به به بررسی اخلاقی دارد

امروزه، هیچ‌کس نمی‌تواند قابلیت‌های بی‌بدیل هوش مصنوعی را زیر سوال ببرد؛ پیش‌بینی خطر وقوع سیل، تشخیص بیماری و ترجمه فوری به زبان‌های مختلف تنها گوشه‌ای از قابلیت‌های این فناوری است. پیشرفت‌های حاصل آمده در شبکه های عصبی و قدرت رایانش قابل ملاحظه، این فرصت را در اختیار شرکت‌های فناوری قرار داده تا مدل‌های هوش مصنوعی فوق‌العاده هوشمندی در یک دهه گذشته روانه‌ی بازار کنند. ابرهوش مصنوعی گوگل هم به همین دلیل در حال توسعه است.

«جف دین» – رئیس بخش هوش مصنوعی شرکت گوگل – هفته گذشته در یکی از سخنرانی‌های خود در کالیفرنیا در خصوص ابرهوش مصنوعی گوگل بیان کرد: «این تازه اول راه است. گوگل در حال توسعه‌ی یک نوع فناوری هوش مصنوعی انعطاف‌پذیر، سریع و چندمنظوره است که می‌تواند میلیون‌ها کار انجام دهد. راهکار جدید گوگل که با نام Pathways شناخته می‌شود، بر آن است تا هوش مصنوعی در قالب یک الگوریتم قدرتمند و آگاه به همه چیز عمل کند. تیم ما از اجرای این پروژه به وجد آمده است.

این نوع سیستم‌های اطلاعاتی که درک عمیقی از جهان دارند، این فرصت را در اختیارمان قرار خواهد داد تا برخی از بزرگ‌ترین مشکلات و چالش‌های بشر را از پیش رو برداریم. برای نمونه، اگر این مدل‌ها از دانش شیمی و فیزیک بهره‌مند شوند، بستر مناسبی برای مهندسی داروها فراهم خواهد شد. همچنین، نظام‌های آموزشی با ارائه‌ی تدریس خصوصی کارآمدتر روند رو به رشدی را تجربه خواهند کرد. امید بر این است که مشکلات بسیار پیچیده‌ای از قبیل تغییرات اقلیمی نیز حل شوند چرا که زیرساخت‌های لازم برای مهندسی راهکارهای انرژی پاک در دسترس می‌باشد.»

مسئله‌ اخلاق در ابرهوش مصنوعی گوگل

دین به خوش‌بینی معروف است، اما بسیاری از این موضوع ابراز نگرانی کرده‌اند که چه کسی مسئولیت طراحی و کنترل سیستم‌های هوش مصنوعی جهان را بر عهده خواهد گرفت. طرح یادگیری ماشین گوگل با خروج «تیمنیت گبرو» و «مارگارت میشل» به طور دقیق مورد بررسی قرار گرفته است. این دو فرد روسای سابق تیم اخلاق هوش مصنوعی گوگل هستند. خانم گبرو این ادعا را به زبان آورده است: «دلیل اخراج من از شرکت گوگل این بود که مقاله‌ای جنجالی درباره خطراتِ ناشی از ساخت مدل‌های هوش مصنوعی یادگیری زبان نوشتم. این مدل‌ها با مقادیر عظیمی از داده‌های متنی آموزش داده می‌شوند.»

«کارن هائو» – از بخش MIT Tech Review – خاطرنشان کرده است: «چون هوش مصنوعی گوگل داده‌های متنی را از اینترنت گردآوری می‌کند، همیشه این خطر وجود دارد که محتوای نژادپرستانه، جنسیت‌زده و غیراخلاقی به درون داده‌های آموزشی رخنه کند.»

ابرهوش مصنوعی گوگل

دین در پایان سخنرانی‌اش به گردآوری مسئولانه‌ داده تاکید کرد، اما به جزئیات چالش‌های اخلاقی پیش روی ابرهوش مصنوعی گوگل اشاره نکرد. این مسائل باعث شده تا تیر انتقادات به سوی دین و همکارانش گرفته شود. او اسلایدهایی درباره اصول هوش مصنوعی برای حاضران در کنفرانس نشان داد که در مقیاس کلی به این نگرانی‌ها اشاره می‌کند. وی افزود: «مسائل و نگرانی‌های مربوط به داده تنها یکی از مسئولیت‌هایی است که باید مورد توجه قرار گیرد. موضوعات مهم دیگری نیز وجود دارند که باید بررسی شوند.»

مسئولیت‌پذیری در فناوری‌های هوش مصنوعی

دین زمانی در کنفرانس تِد شرکت کرد که منتقدان خواستار اِعمال کنترل بیشتر بر شرکت‌های بزرگ فناوری هستند. منتقدان خواهان این هستند که سیستم‌های هوش مصنوعی جهان با سخت‌گیری بیشتری کنترل شوند و ابرهوش مصنوعی گوگل هم جزو همین سیستم‌هاست. یکی از این منتقدان بلافاصله پس از اتمام سخنرانی دین شروع به صحبت کرد. «ژیائووی آر. وانگ» – مدیر خلاقِ مجله فناوری Logic – به نوآوری‌های عمومی تاکید داشت. وی این چنین گفت: «خوش‌بینی درباره هوش مصنوعی فقط زمانی تحقق می‌یابد که افراد جامعه خودشان درباره این فناوری تصمیم گیرند؛ نباید همه کارها را به افرادی مثل جف دین و شرکت‌هایی نظیر گوگل واگذار کرد. جنبش AI for Good بر آن است تا از قابلیت‌های یادگیری ماشین برای حل بزرگ‌ترین مشکلات اجتماعی جهان استفاده کند.»

کریس اندرسن و گرِگ براکمن – هم‌بنیان‌گذار گروه تحقیقات اخلاق هوش مصنوعی در شرکت OpenAI – نیز به پیامدهای ناخواسته‌ی سیستم‌های قدرتمند یادگیری ماشین اشاره کردند. براکمن بر این سناریو معتقد بود که انسان‌ها در نقش مربی اخلاق هوش مصنوعی ظاهر می‌شوند. براکمن در ادامه بیان کرد: «می‌توان ارزش‌های مورد نظر را به سیستم هوش مصنوعی یاد داد. این اقدام در عین حال که ظرافت زیادی می‌طلبد، از اهمیت بسزایی نیز برخودار است. همان‌طور که به کودک یاد می‌دهید که خوب و بد را از یکدیگر تشخیص دهد، باید برخورد مشابهی با سیستم‌های هوش مصنوعی داشته باشید. البته زمانی که آموزش ماشین‌ها به پایان رسید، باید جانب احتیاط را در به‌کارگیری آنها رعایت کرد.»

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

مقاله ما چطور بود؟

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
1 دیدگاه
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
لطفاً برای تکمیل این فرم، جاوا اسکریپت را در مرورگر خود فعال کنید.