توجه به تاثیرات هوش مصنوعی و پنج روش برای تبدیل آن به ابزاری مفید
اکنون بیش از هر زمان دیگری به تاثیرات هوش مصنوعی توجه شده است. یک سال پیش کسی فکر نمیکرد که سال 2020 اینگونه شروع و تمام شود. در سال 2018 یک سری اتفاقها که توجه همگان را برانگیخت همچون تصادفات اتومبیلهای خودران و بروز تبعیض در ابزارهای استخدام رخ داد. در سال 2019 بیش از هر زمان دیگری در مورد اخلاق در هوش مصنوعی صحبت شد. اما گفتگو کافی نبود. ما نیاز به اقدامات ملموسی داشتیم. دو ماه بعد ویروس کرونا جهان را تحت تاثیر مخربی قرار داد.
آسیبهای الگوریتمهای هوش مصنوعی
پس از این، در عصری قرار گرفتیم که واقعیت دنیای ما فاصله اجتماعی و دوری از همدیگر بود. در این میان، گفتگوها در مورد آسیبهای الگوریتمها ناگهان مورد توجه قرار گرفت. سیستمهایی همچون الگوریتمهای اسکن صورت HireVue و ابزارهای نظارت بر محل کار که تا پیش از این به صورت چراغ خاموش به فعالیت خود ادامه میدادند به محل بحث و نزاع تبدیل شدند. همچنین ابزارهای نظارت و ارزیابی دانشجویان دستخوش تغییر شدند. در ماه آگوست، پس از شکست چشمگیر دولت انگلستان در جایگزینی امتحانات حضوری با امتحانات آنلاین به منظور پذیرش در دانشگاه، صدها دانشجو در لندن جمع شدند و شعار لعنت بر الگوریتم سر دادند. چند ماه بعد معترضان استنفورد نیز دوباره تجمعی مشابه را برپا داشتند. دب راجی، محقق هوش مصنوعی در این باره توییت کرد: این موضوع در حال تبدیل شدن به نبرد این سال است.
در همان زمان اقدامات عملی بیشتری انجام شد. در یک پیروزی بزرگ و پس از قتل جورج فلوید که موجب اعتراض جهانی علیه خشونت پلیس شد، آمازون، مایکروسافت و IBM فروش سیستم شناسایی چهره خود را به مجریان قانون ممنوع یا به حالت تعلیق درآوردند . این نقطه عطف مبارزات دو ساله محققان و فعالان حقوق مدنی برای نشان دادن ناکارامدی و اثرات تبعیضآمیز فناوریهای شرکتها بود. تغییر دیگری که کوچک اما قابل توجه بود این موضوع بود که برای اولین بار NeurIPS ، یکی از برجستهترین کنفرانسهای تحقیقاتی هوش مصنوعی محققان را ملزم به ارائه بیانیه اخلاقی به همراه مقالات خود کرد.
اکنون توجه همگان نسبت به تاثیرات هوش مصنوعی نسبت به گذشته بیشتر شده است. در اینجا به پنج موضوع میپردازیم که باعث میشود ما امیدواری بیشتری داشته باشیم.
کاهش دخالت شرکتها در هدایت تحقیقات
غولهای فناوری کنترل نامتناسبی بر جهت تاثیرات هوش مصنوعی دارند. این موضوع باعث تغییر جهت این حوزه از یک کل به سمت دادههای بزرگ و مدلهای بزرگ با پیامدهای مختلف شده است. این تاثیر باعث میشود تحقیقات موثری صورت نگیرد و طیف وسیعی از رویکردهای دیگر نادیده گرفته شود. همانطور که اخراج تیمینت گبرو از گوگل نشان داد غولهای فناوری میتوانند به راحتی دسترسی به بررسی پیامدها را نیز محدود کنند.
ببیشترین تأثیری که شرکتها اعمال میکنند به پول و کمبود بودجه جایگزین برمیگردد. به طور مثال آزمایشگاه OpenAI در ابتدا سعی کرد تنها به اهداکنندگان مستقل اعتماد کند. این موضوع برای همیشه اینگونه باقی نماند و چهار سال بعد OpenAI یک قرارداد سرمایهگذاری با مایکروسافت امضا کرد. امید میرود که شاهد باشیم دولتهای بیشتری به این شکاف توجه کنند تا بودجههایی را برای محققان فراهم کنند که آنها بتوانند مستقل از نتیجه، تحقیقات خود را ارائه کنند. این یک راهحل عالی نیست، اما برای شروع بد نیست.
تمرکز مجدد بر روی مفهوم عقل سلیم
یکی از اهداف اصلی تحقیق درمورد تاثیرات هوش مصنوعی، خلق ماشینهای هوشمندی است که تمرکز آنها فقط بر الگوها نیست بلکه در واقع معنا را نیز میفهمند. در این سالها توجه بسیار زیادی بر روی مدلهای بزرگتر، باعث شده است این هدف تحت الشعاع قرار بگیرد و گفته میشود نفوذ شرکتها عامل اصلی در این روند است، البته متهمان دیگری نیز وجود دارند. کنفرانسهای تحقیقاتی و مجلات همواره تأکید زیادی بر دستیابی به نتایج “سطح پیشرفته” دارند. اما اوضاع و احوال این نتایج اغلب با آزمونهایی که میتوان آنها را با دادههای بیشتر و مدلهای بزرگتر شکست داد، ضعیف ارزیابی میشود.
اینگونه نیست که مدلهای بزرگ هرگز نمیتوانند به درک عقل سلیم برسند. این هنوز یک سوال بدون پاسخ است. اما میتوان مسیرهای تحقیقاتی دیگری را نیز امتحان کرد که ارزش سرمایهگذاری بیشتر را دارند. برخی از متخصصان همه تخممرغهای خود را در سبد هوش مصنوعی عصبی که ترکیبی از یادگیری عمیق و سیستمهای دانش نمادین است قرار دادهاند. برخی دیگر نیز در حال آزمایش تکنیکهای احتمالاتی بیشتری هستند که از دادههای بسیار کمتری بهره میبرند. این تکنیکها الهامگرفته از توانایی کودکان در یادگیری با استفاده از نمونههای بسیار کم است.
امید است که در این سال توجه بیشتر به عقل سلیم شود. این امر نه تنها میتواند به سیستمهای قویتر فنی منجر شود، بلکه این پیشرفتها پیامدهای عمده اجتماعی نیز دارند.. سیستمهای یادگیری عمیق فعلی به راحتی فریب میخورند، به عنوان مثال، ایمنی اتومبیلهای خودران میتواند ضعیف شود و سلاحهای اتوماتیک میتوانند منجر به آسیب شوند. همچنین عدم توانایی سیستمها در تمایز بین همبستگی و علیت نیز ریشه تبعیض الگوریتمی است.
توانمندسازی محققان در حاشیه
اگر بپذیریم که الگوریتمها ارزشها و چشماندازهای سازندگان خود را کدگذاری میکنند، هنگام توسعه آنها طیف وسیعی از انسان ها باید باید در نظر گرفته شوند. نگاهی به کنفرانس های اخیر نشاندهنده یک وضع امیدوارکننده است. تعداد سخنرانان زن و اقلیت در حال افزایش است. این موضوع تحسینبرانگیز است. اگرچه رفتارهای گوگل با گبرو، یکی از معدود زنان برجسته سیاه پوست در این حوزه، نشان داد که هنوز راه زیادی باقی مانده است. اگر به این افراد اجازه داده نشود که تجربه زیسته خود را در کار خود داشته باشند ، تنوع در تعداد بی معنی است.
توجه بیشتر به جوامع تحت تأثیر
در زمینه تحقیق درباره تاثیرات هوش مصنوعی یک گروه دیگر وجود دارد که باید مدنظر قرار داده شود. یکی از هیجان انگیزترین روندهای سال گذشته، ظهور یادگیری ماشین مشارکتی بود. این مانند این است که فرآیند توسعه هوش مصنوعی را دوباره اختراع کنند تا شامل کسانی شود که در نهایت تحت الگوریتمها قرار میگیرند.
در ماه جولای، اولین کارگاه کنفرانسی که در این زمینه برگزار شد، طیف گسترده ای از ایدهها را در مورد چند و چون آن جمعآوری کرد. پیشنهادها شامل روشهای جدید برای درخواست از جامعه جهت ارائه بازخورد بود. روشهای جدید حسابرسی مدل برای اطلاع رسانی و جذب مردم و همچنین طراحی مجدد سیستمهای هوش مصنوعی برای اینکه کاربران کنترل بیشتری روی تنظیمات داشته باشند.
امید میرود در این سال بیشتر این ایدهها به طور جدی بررسی و تصویب شوند. فیسبوک از هم اکنون در حال انجام این کار است.
تنظیم مقررات و ریلگذاری برای قوانین جدید
تاکنون تلاشهای مردمی باعث شده تا جنبشی شروع شود که باعث کاهش آسیبهای الگوریتمها و تاثیرات هوش مصنوعی شود و غولهای فناوری را مسئول و پاسخگو کند. اما ریلگذاری بیشتر بر عهده سازمانهای ملی و بینالمللی است. خبر خوب این است که قانونگذاران در سراسر دنیا به این موضوع توجه کردهاند و در حال تهیه پیشنویس قانون هستند. در ایالات متحده، اعضای کنگره قبلاً لایحههایی را برای رسیدگی به فناوری شناسایی چهره، سوگیری هوش مصنوعی و جعل عمیق ارائه کردهاند. همچنین تعداد زیادی از آنها در ماه دسامبر نامهای به گوگل ارسال کردند و از ابراز تمایل خود برای ادامه اجرای این آییننامه گفتند.
بنابراین آخرین امیدواری برای این سال این است که شاهد تصویب برخی از این قوانین باشیم. وقت آن است که آنچه را که طی چند سال گذشته آموختهایم مدون کنیم و با کنترل تاثیرات هوش مصنوعی، آن را بیش از پیش برای ساخت دنیایی بهتر به خدمت بگیریم.