شخصیتهای جنجالی هوش مصنوعی در سالی که گذشت
در حالی که سال گذشته با پیشرفتهای زیادی همراه بوده، دنیای هوش مصنوعی نیز شاهد ادعاهای جسورانه و بحثهای داغی بوده است. این مقاله نگاهی به جنجالیترین چهرههای هوش مصنوعی در سال ۲۰۲۴ میاندازد؛ افرادی که هنجارها را به چالش کشیدند و مرزهای تواناییها و بایدهای هوش مصنوعی را دوباره تعریف کردند.
در حالی که سال گذشته با پیشرفتهای زیادی همراه بوده، دنیای هوش مصنوعی نیز شاهد ادعاهای جسورانه و بحثهای داغی بوده است. این مقاله نگاهی به جنجالیترین چهرههای هوش مصنوعی در سال ۲۰۲۴ میاندازد؛ افرادی که هنجارها را به چالش کشیدند و مرزهای تواناییها و بایدهای هوش مصنوعی را دوباره تعریف کردند.
یورگن اشمیدهوبر
«یورگن اشمیدهوبر»، (Jürgen Schmidhuber) دانشمند علوم کامپیوتر آلمانی که به خاطر پژوهشهایش در زمینه شبکههای عصبی بازگشتی شناخته میشود، بارها ادعا کرده که از او و دیگر محققان به اندازه کافی برای دستاوردهایشان در یادگیری عمیق تقدیر نشده است. او در مقابل عنوان کرده که «جفری هینتون»، «یان لوکان»، و «یوشوا بنجیو» اعتبار ناعادلانهای دریافت کردهاند.
اخیراً او ادعا کرد که جایزه نوبل هینتون بر اساس پژوهشهای بدون ذکر منبع بنا شده است. به گفته او، تحقیقات هینتون و هاپفیلد بهشدت تحت تأثیر کارهای قبلی بوده است که به درستی به آنها اشاره نشده است.
او در لینکدین پستی منتشر کرد و گفت: «این جایزه نوبل برای سرقت ادبی است.» اشمیدهوبر معتقد است که روششناسیهای «الکسی ایواخننکو» و «شونایچی آماری» در دهههای ۱۹۶۰ و ۱۹۷۰ زیربنای تحقیقات برندگان نوبل را تشکیل داده است.
او همچنین اظهار داشت: «آنها روشهایی را که در اوکراین و ژاپن توسعهیافته بود بازنشر کردند، بدون اینکه به مقالات اصلی ارجاع دهند. حتی در مرورهای بعدی نیز از مخترعان اصلی نامی نبردند و به نظر میرسد این امر عمدی بوده است.»
رزالین پیکارد
«رزالین پیکارد»، (Rosalind Picard) استاد دانشگاه MIT و یکی از چهرههای برجسته آزمایشگاه رسانهای MIT، اخیراً پس از سخنرانی در کنفرانس NeurIPS ۲۰۲۴ با انتقاداتی درباره اظهارات تبعیضآمیز روبهرو شد.
در این سخنرانی، او به حادثهای اشاره کرد که در آن یک دانشجوی چینی از دانشگاه اخراج شده بود. این موضوع به دلیل برداشتهای نژادپرستانه و تقویت کلیشههای منفی مورد انتقاد قرار گرفت. این اظهارات باعث عذرخواهی از سوی پیکارد و برگزارکنندگان NeurIPS شد و بحثهایی درباره شمولیت و احترام در جامعه تحقیقاتی هوش مصنوعی به راه انداخت.
باویش آگاروال
«باویش آگاروال»، (Bhavish Aggarwal) بنیانگذار چتبات هوش مصنوعی Krutrim از شرکت Ola، امسال با اظهاراتی جنجالآفرین شد. او توسعه هوش مصنوعی در هند را به موضوع حاکمیت دادهها مرتبط دانست و اصطلاح «استعمار تکنولوژیک» را برای توصیف بهرهبرداری از کشورهای در حال توسعه توسط غولهای فناوری جهانی به کار برد.
وی گفت: «هند بزرگترین تولیدکننده دادههای دیجیتال در جهان است، اما همه این دادهها در غرب ذخیره میشوند. آنها دادههای ما را میبرند، هوش مصنوعی را توسعه میدهند و بعد آن را به دلار به خود ما میفروشند. این همان داستان کمپانی هند شرقی است.»
این اظهارات بحثبرانگیز شد، چرا که بسیاری یادآور شدند بخش عمدهای از تأمین مالی اولیه Ola از سوی سرمایهگذاران خارجی تأمین شده است.
همچنین، پس از اینکه ابزار هوش مصنوعی لینکدین او را با ضمیرهای خنثی جنسیتی خطاب کرد، آگاروال اعلام کرد که Ola به جای استفاده از پلتفرم Azure مایکروسافت، از زیرساخت Krutrim Cloud خود بهره خواهد برد. وی همچنین سایر شرکتهای هندی را به همین اقدام تشویق کرد که برخی این رویکرد را بهعنوان تبلیغ احساسات ضدغربی در صنعت فناوری تعبیر کردند.
اریک اشمیت
«اریک اشمیت»، (Eric Schmidt) مدیرعامل پیشین گوگل، اخیراً در مصاحبههایی با ABC News و PBS درباره خطرات احتمالی هوش مصنوعی اظهار نظر کرده است. او هشدار داد که سیستمهای هوش مصنوعی ممکن است به نقطهای خطرناک برسند که بتوانند خودشان را بهبود دهند. ایشان پیشنهاد کرد که در چنین مرحلهای باید امکان «خاموشکردن» آنها در نظر گرفته شود.
او همچنین از لزوم نظارت انسانی بر سیستمهای خودمختار بهویژه در سلاحهای خودکار صحبت کرد و بر اهمیت حفظ «کنترل معنادار» تأکید کرد.
میرا موراتی
«میرا موراتی»، (Mira Murati) مدیر ارشد سابق فناوری OpenAI، در ماه مارس به دلیل دادههای آموزشی مدل جدید هوش مصنوعی متن به ویدئو OpenAI به نام Sora در مرکز یک جنجال قرار گرفت.
در مصاحبهای با وال استریت ژورنال، زمانی که درباره منابع دقیق دادههای آموزشی Sora پرسیده شد، موراتی عنوان کرد که این مدل بر اساس «دادههای در دسترس عمومی و دارای مجوز» آموزش دیده است. با این حال، وقتی از او درباره استفاده از محتوای پلتفرمهایی مانند یوتیوب، اینستاگرام یا فیسبوک سؤال شد، با تردید پاسخ داد: «راستش مطمئن نیستم. نمیتوانم با اطمینان بگویم.»
هوان تون-تت
«هوان تون-تت»، (Hoan Ton-That) مدیرعامل و بنیانگذار Clearview AI، همچنان به دلیل فناوری تشخیص چهره شرکتش و رویههای بحثبرانگیز آن، در سال ۲۰۲۴ چهرهای جنجالی بود.
Clearview AI با مشکلات قانونی جدی، از جمله جریمه ۳۰.۵ میلیون یورویی از سوی سازمان حفاظت از دادههای هلند به دلیل نگهداری یک «پایگاهداده غیرقانونی» از میلیاردها تصویر چهره مواجه شد. همچنین این شرکت تهدید به جریمههای بیشتری به ارزش ۵.۱ میلیون یورو برای عدم رعایت قوانین حفاظت از دادههای اتحادیه اروپا شد.
با وجود این چالشها، تون-تت از شرکت خود دفاع کرد و گفت که Clearview تنها از دادههای عمومی موجود آنلاین استفاده میکند و رویکرد خود را با جستجوی عکس گوگل مقایسه کرد. او تأکید کرد که فناوری این شرکت نقش مهمی در اجرای قانون ایفا میکند و به استفاده از آن در تحقیقات مربوط به شورش ۶ ژانویه در کنگره آمریکا اشاره کرد.
اسکارلت جوهانسون
در ابتدای سال ۲۰۲۴، «اسکارلت جوهانسون» (Scarlett Johansson) به دلیل استفاده غیرمجاز از صدای خود در قابلیت جدید ChatGPT با نام Sky، به مرکز توجهات منفی کشیده شد.
بسیاری از کاربران متوجه شباهت قابلتوجه صدای این قابلیت به صدای جوهانسون در فیلم Her شدند. این مسئله باعث ناراحتی جوهانسون شد، بهویژه با توجه به اینکه او در سال ۲۰۲۲ پیشنهاد همکاری با OpenAI را رد کرده بود. پس از شنیدن دموی قابلیت جدید، او بهشدت واکنش نشان داد و خواستار توقف استفاده از این صدا شد.
پربهاکار راقوان
«پربهاکار راقوان»، (Prabhakar Raghavan) مدیر ارشد فناوری گوگل، به دلیل ویژگی تولید تصویر هوش مصنوعی Gemini مورد انتقاد قرار گرفت. این ابزار تصاویری غیرتاریخی و بیشازحد متنوع تولید میکرد. برای مثال، زمانی که از Gemini خواسته شد تصویر بنیانگذاران ایالات متحده را بسازد، این تصاویر شامل افرادی از قومیتهای مختلف بود که با اسناد تاریخی مطابقت نداشتند.
راقوان ضمن عذرخواهی از این خطاها توضیح داد که هدف آن ترویج تنوع در خروجیهای مدل بود، اما این تلاش گاه به افراط کشیده شده است.
ایلان ماسک
«ایلان ماسک» (Elon Musk) رابطهای پیچیده با OpenAI دارد. او اخیراً دادخواستی برای جلوگیری از تغییر ساختار OpenAI به یک مدل سودآور ارائه کرد. ماسک که از بنیانگذاران OpenAI است، این شرکت را به نقض اصول اولیه و انحصارگرایی متهم کرد.
این شکایت، مایکروسافت را نیز بهعنوان متهم در بر میگیرد و ادعا میکند OpenAI از مأموریت غیرانتفاعی خود که بهمنظور بهرهمندی بشریت بود، دور شده است. در پاسخ، OpenAI اسنادی منتشر کرد که نشان میداد ماسک از ساختار سودآور حمایت کرده و حتی در سال ۲۰۱۷ به دنبال کنترل اکثریت شرکت بوده است. مدیرعامل OpenAI، سم آلتمن، ماسک را «قلدری آشکار» توصیف کرد.