Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 توجه به تاثیرات هوش مصنوعی و پنج روش برای تبدیل آن به ابزاری مفید

توجه به تاثیرات هوش مصنوعی و پنج روش برای تبدیل آن به ابزاری مفید

زمان مطالعه: 4 دقیقه

اکنون بیش از هر زمان دیگری به تاثیرات هوش مصنوعی توجه شده است. یک سال پیش کسی فکر نمی‌کرد که سال 2020 اینگونه شروع و تمام شود. در سال 2018 یک سری اتفاق‌ها که توجه همگان را برانگیخت همچون تصادفات اتومبیل‌های خودران و بروز تبعیض در ابزارهای استخدام رخ داد. در سال 2019 بیش از هر زمان دیگری در مورد اخلاق در هوش مصنوعی صحبت شد. اما گفتگو کافی نبود. ما نیاز به اقدامات ملموسی داشتیم. دو ماه بعد ویروس کرونا جهان را تحت تاثیر مخربی قرار داد.

آسیب‌های الگوریتم‌های هوش مصنوعی

پس از این، در عصری قرار گرفتیم که واقعیت دنیای ما فاصله اجتماعی و دوری از همدیگر بود. در این میان، گفتگوها در مورد آسیب‌های الگوریتم‌ها ناگهان مورد توجه قرار گرفت. سیستم­‌هایی همچون الگوریتم‌های اسکن صورت HireVue و ابزارهای نظارت بر محل کار که تا پیش از این به صورت چراغ خاموش به فعالیت خود ادامه می‌دادند به محل بحث و نزاع تبدیل شدند.  همچنین ابزارهای نظارت و ارزیابی دانشجویان دستخوش تغییر شدند. در ماه آگوست، پس از شکست چشم‌گیر دولت انگلستان در جایگزینی امتحانات حضوری با امتحانات آنلاین به منظور پذیرش در دانشگاه، صدها دانشجو در لندن جمع شدند و شعار لعنت بر الگوریتم  سر دادند. چند  ماه بعد معترضان استنفورد نیز دوباره تجمعی مشابه را برپا داشتند. دب راجی، محقق هوش مصنوعی در این باره توییت کرد:  این موضوع در حال تبدیل شدن به نبرد این سال است.

در همان زمان  اقدامات عملی بیشتری انجام شد. در یک پیروزی بزرگ و پس از قتل جورج فلوید که موجب اعتراض جهانی علیه خشونت پلیس شد، آمازون، مایکروسافت و IBM فروش سیستم شناسایی چهره خود را به مجریان قانون ممنوع یا به حالت تعلیق درآوردند . این نقطه عطف مبارزات دو ساله محققان و فعالان حقوق مدنی برای نشان دادن ناکارامدی و اثرات تبعیض‌آمیز فناوری‌های شرکت‌ها بود. تغییر دیگری که کوچک اما قابل توجه بود این موضوع بود که برای اولین بار  NeurIPS ، یکی از برجسته‌ترین کنفرانس‌های تحقیقاتی هوش مصنوعی محققان را ملزم به ارائه بیانیه اخلاقی به همراه مقالات خود کرد.

اکنون توجه همگان نسبت به تاثیرات هوش مصنوعی  نسبت به گذشته بیشتر شده است. در اینجا به پنج موضوع می‌پردازیم که باعث می‌شود ما امیدواری بیشتری داشته باشیم.

کاهش دخالت شرکت‌ها در هدایت تحقیقات

غول‌های فناوری کنترل نامتناسبی بر جهت تاثیرات هوش مصنوعی دارند. این موضوع  باعث تغییر جهت این حوزه از یک کل به سمت داده‌های بزرگ و مدل‌های بزرگ با پیامدهای مختلف شده است. این تاثیر باعث می‌شود تحقیقات موثری صورت نگیرد و طیف وسیعی از رویکردهای دیگر نادیده گرفته شود. همانطور که اخراج تیمینت گبرو از گوگل نشان داد غول‌های فناوری می‌توانند به راحتی دسترسی به بررسی پیامدها را نیز محدود کنند.

ببیشترین تأثیری که شرکت‌ها اعمال می‌کنند به پول و کمبود بودجه جایگزین برمی‌گردد. به طور مثال آزمایشگاه OpenAI در ابتدا سعی کرد تنها به اهداکنندگان مستقل اعتماد کند. این موضوع برای همیشه اینگونه باقی نماند و چهار سال بعد OpenAI یک قرارداد سرمایه‌گذاری با مایکروسافت امضا کرد. امید می‌رود که شاهد باشیم دولت‌های بیشتری به این شکاف توجه کنند تا بودجه‌هایی را برای محققان فراهم کنند که آنها بتوانند مستقل از نتیجه، تحقیقات خود را ارائه کنند. این یک راه‌حل عالی نیست، اما برای شروع بد نیست.

تمرکز مجدد بر روی مفهوم عقل سلیم

یکی از اهداف اصلی تحقیق درمورد تاثیرات هوش مصنوعی، خلق ماشین‌های هوشمندی است  که تمرکز آن‌ها فقط بر الگوها نیست بلکه در واقع معنا را نیز می‌فهمند. در این سال‌ها توجه بسیار زیادی بر روی مدل‌های بزرگ‌تر، باعث شده است این هدف تحت الشعاع قرار بگیرد و گفته می‌شود نفوذ شرکت‌ها عامل اصلی در این روند است، البته متهمان دیگری نیز وجود دارند. کنفرانس‌های تحقیقاتی و مجلات همواره تأکید زیادی بر دستیابی به نتایج “سطح پیشرفته” دارند. اما اوضاع و احوال این نتایج اغلب با آزمون‌هایی که می‌توان آن‌ها را با داده‌های بیش‌تر و مدل‌های بزرگ‌تر شکست داد، ضعیف ارزیابی می‌شود.

اینگونه نیست که مدل‌های بزرگ هرگز نمی‌توانند به درک عقل سلیم برسند. این هنوز یک سوال بدون پاسخ است. اما می‌توان مسیرهای تحقیقاتی دیگری را نیز امتحان کرد که ارزش سرمایه‌گذاری بیشتر را دارند. برخی از متخصصان همه تخم‌مرغ‌های خود را در سبد هوش مصنوعی عصبی که ترکیبی از یادگیری عمیق و سیستم‌های دانش نمادین است قرار داده‌اند. برخی دیگر نیز در حال آزمایش تکنیک‌های احتمالاتی بیشتری هستند که از داده‌های بسیار کمتری بهره می‌برند. این تکنیک‌ها الهام‌گرفته از توانایی کودکان در یادگیری با استفاده از نمونه‌های بسیار کم است.

امید است که در این سال توجه بیشتر به عقل سلیم شود. این امر نه تنها می‌تواند به سیستم‌های قوی‌تر فنی منجر شود، بلکه این پیشرفت‌ها پیامدهای عمده اجتماعی نیز دارند.. سیستم‌های یادگیری عمیق فعلی به راحتی فریب می‌خورند، به عنوان مثال، ایمنی اتومبیل‌های خودران می‌تواند ضعیف شود و سلاح‌های اتوماتیک می‌توانند منجر به آسیب شوند. همچنین عدم توانایی سیستم‌ها در تمایز بین همبستگی و علیت نیز ریشه تبعیض الگوریتمی است.

توانمندسازی محققان در حاشیه

اگر بپذیریم که الگوریتم‌ها ارزش‎ها و چشم‌اندازهای سازندگان خود را کدگذاری می‌کنند، هنگام توسعه آنها طیف وسیعی از انسان ها باید باید در نظر گرفته شوند. نگاهی به کنفرانس های اخیر نشان‌دهنده یک وضع امیدوارکننده است. تعداد سخنرانان زن و اقلیت در حال افزایش است. این موضوع تحسین‌برانگیز است. اگرچه رفتارهای گوگل با گبرو، یکی از معدود زنان برجسته سیاه پوست در این حوزه، نشان داد که هنوز راه زیادی باقی مانده است. اگر به این افراد اجازه داده نشود که تجربه زیسته خود را در کار خود داشته باشند ، تنوع در تعداد بی معنی است.

توجه بیشتر به جوامع تحت تأثیر

در زمینه تحقیق درباره تاثیرات هوش مصنوعی یک گروه دیگر وجود دارد که باید مدنظر قرار داده شود. یکی از هیجان انگیزترین روندهای سال گذشته، ظهور یادگیری ماشین مشارکتی بود. این مانند این است که فرآیند توسعه هوش مصنوعی را دوباره اختراع کنند تا شامل کسانی شود که در نهایت تحت الگوریتم‌ها قرار می‌گیرند.

در ماه جولای، اولین کارگاه کنفرانسی که در این زمینه برگزار شد، طیف گسترده ای از ایده‌ها را در مورد چند و چون آن جمع‌آوری کرد. پیشنهادها شامل روش‌های جدید برای درخواست از جامعه جهت ارائه بازخورد بود. روش‌های جدید حسابرسی مدل برای اطلاع رسانی و جذب مردم  و همچنین طراحی مجدد سیستم‌های هوش مصنوعی برای اینکه کاربران کنترل بیشتری روی تنظیمات داشته باشند.

امید می‌رود در این سال بیشتر این ایده‌ها به طور جدی بررسی و تصویب شوند. فیس‌بوک از هم اکنون در حال انجام این کار است.

تنظیم مقررات و ریل‌گذاری برای قوانین جدید

تاکنون تلاش‌های مردمی باعث شده تا جنبشی شروع شود که باعث کاهش آسیب‌های الگوریتم‌ها و تاثیرات هوش مصنوعی شود و غول‌های فناوری را مسئول و پاسخگو کند. اما ریل‌گذاری بیشتر بر عهده سازمان‌های ملی و بین‌المللی است. خبر خوب این است که قانون‌گذاران در سراسر دنیا به این موضوع توجه کرده‌اند و در حال تهیه پیش‌نویس قانون هستند. در ایالات متحده، اعضای کنگره قبلاً لایحه‌هایی را برای رسیدگی به فناوری شناسایی چهره، سوگیری هوش مصنوعی و جعل عمیق ارائه کرده‌اند. همچنین تعداد زیادی از آن‌ها در ماه دسامبر نامه‌ای به گوگل ارسال کردند و از ابراز تمایل خود برای ادامه اجرای این آیین‌نامه گفتند.

بنابراین آخرین امیدواری برای این سال این است که شاهد تصویب برخی از این قوانین باشیم. وقت آن است که آنچه را که طی چند سال گذشته آموخته‌ایم مدون کنیم و با کنترل تاثیرات هوش مصنوعی، آن را بیش از پیش برای ساخت دنیایی بهتر به خدمت بگیریم.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]