برترین متخصصین

از سراسر دنیا

مجموعه وبینارهای مدل‌های بزرگ زبانی (LLM)

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 شخصیت‌های جنجالی هوش مصنوعی در سالی که گذشت

شخصیت‌های جنجالی هوش مصنوعی در سالی که گذشت

زمان مطالعه: 4 دقیقه

در حالی که سال گذشته با پیشرفت‌های زیادی همراه بوده، دنیای هوش مصنوعی نیز شاهد ادعاهای جسورانه و بحث‌های داغی بوده است. این مقاله نگاهی به جنجالی‌ترین چهره‌های هوش مصنوعی در سال ۲۰۲۴ می‌اندازد؛ افرادی که هنجارها را به چالش کشیدند و مرزهای توانایی‌ها و بایدهای هوش مصنوعی را دوباره تعریف کردند.

در حالی که سال گذشته با پیشرفت‌های زیادی همراه بوده، دنیای هوش مصنوعی نیز شاهد ادعاهای جسورانه و بحث‌های داغی بوده است. این مقاله نگاهی به جنجالی‌ترین چهره‌های هوش مصنوعی در سال ۲۰۲۴ می‌اندازد؛ افرادی که هنجارها را به چالش کشیدند و مرزهای توانایی‌ها و بایدهای هوش مصنوعی را دوباره تعریف کردند.

یورگن اشمیدهوبر

«یورگن اشمیدهوبر»، (Jürgen Schmidhuber) دانشمند علوم کامپیوتر آلمانی که به خاطر پژوهش‌هایش در زمینه شبکه‌های عصبی بازگشتی شناخته می‌شود، بارها ادعا کرده که از او و دیگر محققان به اندازه کافی برای دستاوردهایشان در یادگیری عمیق تقدیر نشده است. او در مقابل عنوان کرده که «جفری هینتون»، «یان لوکان»، و «یوشوا بنجیو» اعتبار ناعادلانه‌ای دریافت کرده‌اند.

«یورگن اشمیدهوبر»، (Jürgen Schmidhuber) دانشمند علوم کامپیوتر آلمانی

اخیراً او ادعا کرد که جایزه نوبل هینتون بر اساس پژوهش‌های بدون ذکر منبع بنا شده است. به گفته او، تحقیقات هینتون و هاپفیلد به‌شدت تحت تأثیر کارهای قبلی بوده است که به درستی به آن‌ها اشاره نشده است.

او در لینکدین پستی منتشر کرد و گفت: «این جایزه نوبل برای سرقت ادبی است.» اشمیدهوبر معتقد است که روش‌شناسی‌های «الکسی ایواخننکو» و «شون‌ایچی آماری» در دهه‌های ۱۹۶۰ و ۱۹۷۰ زیربنای تحقیقات برندگان نوبل را تشکیل داده است.

او همچنین اظهار داشت: «آن‌ها روش‌هایی را که در اوکراین و ژاپن توسعه‌یافته بود بازنشر کردند، بدون اینکه به مقالات اصلی ارجاع دهند. حتی در مرورهای بعدی نیز از مخترعان اصلی نامی نبردند و به نظر می‌رسد این امر عمدی بوده است.»

رزالین پیکارد

«رزالین پیکارد»، (Rosalind Picard) استاد دانشگاه MIT و یکی از چهره‌های برجسته آزمایشگاه رسانه‌ای MIT، اخیراً پس از سخنرانی در کنفرانس NeurIPS ۲۰۲۴ با انتقاداتی درباره اظهارات تبعیض‌آمیز روبه‌رو شد.

در این سخنرانی، او به حادثه‌ای اشاره کرد که در آن یک دانشجوی چینی از دانشگاه اخراج شده بود. این موضوع به دلیل برداشت‌های نژادپرستانه و تقویت کلیشه‌های منفی مورد انتقاد قرار گرفت. این اظهارات باعث عذرخواهی از سوی پیکارد و برگزارکنندگان NeurIPS شد و بحث‌هایی درباره شمولیت و احترام در جامعه تحقیقاتی هوش مصنوعی به راه انداخت.

«رزالین پیکارد»، (Rosalind Picard) استاد دانشگاه MIT

باویش آگاروال

«باویش آگاروال»، (Bhavish Aggarwal) بنیان‌گذار چت‌بات هوش مصنوعی Krutrim از شرکت Ola، امسال با اظهاراتی جنجال‌آفرین شد. او توسعه هوش مصنوعی در هند را به موضوع حاکمیت داده‌ها مرتبط دانست و اصطلاح «استعمار تکنولوژیک» را برای توصیف بهره‌برداری از کشورهای در حال توسعه توسط غول‌های فناوری جهانی به کار برد.

وی گفت: «هند بزرگ‌ترین تولیدکننده داده‌های دیجیتال در جهان است، اما همه این داده‌ها در غرب ذخیره می‌شوند. آن‌ها داده‌های ما را می‌برند، هوش مصنوعی را توسعه می‌دهند و بعد آن را به دلار به خود ما می‌فروشند. این همان داستان کمپانی هند شرقی است.»

«باویش آگاروال»، (Bhavish Aggarwal) بنیان‌گذار چت‌بات هوش مصنوعی

این اظهارات بحث‌برانگیز شد، چرا که بسیاری یادآور شدند بخش عمده‌ای از تأمین مالی اولیه Ola از سوی سرمایه‌گذاران خارجی تأمین شده است.

همچنین، پس از اینکه ابزار هوش مصنوعی لینکدین او را با ضمیرهای خنثی جنسیتی خطاب کرد، آگاروال اعلام کرد که Ola به جای استفاده از پلتفرم Azure مایکروسافت، از زیرساخت Krutrim Cloud خود بهره خواهد برد. وی همچنین سایر شرکت‌های هندی را به همین اقدام تشویق کرد که برخی این رویکرد را به‌عنوان تبلیغ احساسات ضدغربی در صنعت فناوری تعبیر کردند.

اریک اشمیت

«اریک اشمیت»، (Eric Schmidt) مدیرعامل پیشین گوگل، اخیراً در مصاحبه‌هایی با ABC News و PBS درباره خطرات احتمالی هوش مصنوعی اظهار نظر کرده است. او هشدار داد که سیستم‌های هوش مصنوعی ممکن است به نقطه‌ای خطرناک برسند که بتوانند خودشان را بهبود دهند. ایشان پیشنهاد کرد که در چنین مرحله‌ای باید امکان «خاموش‌کردن» آن‌ها در نظر گرفته شود.

او همچنین از لزوم نظارت انسانی بر سیستم‌های خودمختار به‌ویژه در سلاح‌های خودکار صحبت کرد و بر اهمیت حفظ «کنترل معنادار» تأکید کرد.

«اریک اشمیت»، (Eric Schmidt) مدیرعامل پیشین گوگل

میرا موراتی

«میرا موراتی»، (Mira Murati) مدیر ارشد سابق فناوری OpenAI، در ماه مارس به دلیل داده‌های آموزشی مدل جدید هوش مصنوعی متن به ویدئو OpenAI به نام Sora در مرکز یک جنجال قرار گرفت.

در مصاحبه‌ای با وال استریت ژورنال، زمانی که درباره منابع دقیق داده‌های آموزشی Sora پرسیده شد، موراتی عنوان کرد که این مدل بر اساس «داده‌های در دسترس عمومی و دارای مجوز» آموزش دیده است. با این حال، وقتی از او درباره استفاده از محتوای پلتفرم‌هایی مانند یوتیوب، اینستاگرام یا فیس‌بوک سؤال شد، با تردید پاسخ داد: «راستش مطمئن نیستم. نمی‌توانم با اطمینان بگویم.»

هوان تون-تت

«هوان تون-تت»، (Hoan Ton-That) مدیرعامل و بنیان‌گذار Clearview AI، همچنان به دلیل فناوری تشخیص چهره شرکتش و رویه‌های بحث‌برانگیز آن، در سال ۲۰۲۴ چهره‌ای جنجالی بود.

Clearview AI با مشکلات قانونی جدی، از جمله جریمه ۳۰.۵ میلیون یورویی از سوی سازمان حفاظت از داده‌های هلند به دلیل نگهداری یک «پایگاه‌داده غیرقانونی» از میلیاردها تصویر چهره مواجه شد. همچنین این شرکت تهدید به جریمه‌های بیشتری به ارزش ۵.۱ میلیون یورو برای عدم رعایت قوانین حفاظت از داده‌های اتحادیه اروپا شد.

«هوان تون-تت»، (Hoan Ton-That) مدیرعامل و بنیان‌گذار Clearview AI

با وجود این چالش‌ها، تون-تت از شرکت خود دفاع کرد و گفت که Clearview تنها از داده‌های عمومی موجود آنلاین استفاده می‌کند و رویکرد خود را با جستجوی عکس گوگل مقایسه کرد. او تأکید کرد که فناوری این شرکت نقش مهمی در اجرای قانون ایفا می‌کند و به استفاده از آن در تحقیقات مربوط به شورش ۶ ژانویه در کنگره آمریکا اشاره کرد.

اسکارلت جوهانسون

در ابتدای سال ۲۰۲۴، «اسکارلت جوهانسون»  (Scarlett Johansson) به دلیل استفاده غیرمجاز از صدای خود در قابلیت جدید ChatGPT با نام Sky، به مرکز توجهات منفی کشیده شد.

بسیاری از کاربران متوجه شباهت قابل‌توجه صدای این قابلیت به صدای جوهانسون در فیلم Her شدند. این مسئله باعث ناراحتی جوهانسون شد، به‌ویژه با توجه به اینکه او در سال ۲۰۲۲ پیشنهاد همکاری با OpenAI را رد کرده بود. پس از شنیدن دموی قابلیت جدید، او به‌شدت واکنش نشان داد و خواستار توقف استفاده از این صدا شد.

«اسکارلت جوهانسون»  (Scarlett Johansson)

پربهاکار راقوان

«پربهاکار راقوان»،  (Prabhakar Raghavan) مدیر ارشد فناوری گوگل، به دلیل ویژگی تولید تصویر هوش مصنوعی Gemini مورد انتقاد قرار گرفت. این ابزار تصاویری غیرتاریخی و بیش‌ازحد متنوع تولید می‌کرد. برای مثال، زمانی که از Gemini خواسته شد تصویر بنیان‌گذاران ایالات متحده را بسازد، این تصاویر شامل افرادی از قومیت‌های مختلف بود که با اسناد تاریخی مطابقت نداشتند.

راقوان ضمن عذرخواهی از این خطاها توضیح داد که هدف آن ترویج تنوع در خروجی‌های مدل بود، اما این تلاش گاه به افراط کشیده شده است.

«پربهاکار راقوان»،  (Prabhakar Raghavan) مدیر ارشد فناوری گوگل

ایلان ماسک

«ایلان ماسک»  (Elon Musk) رابطه‌ای پیچیده با OpenAI دارد. او اخیراً دادخواستی برای جلوگیری از تغییر ساختار OpenAI به یک مدل سودآور ارائه کرد. ماسک که از بنیان‌گذاران OpenAI است، این شرکت را به نقض اصول اولیه و انحصارگرایی متهم کرد.

«ایلان ماسک»  (Elon Musk)

این شکایت، مایکروسافت را نیز به‌عنوان متهم در بر می‌گیرد و ادعا می‌کند OpenAI از مأموریت غیرانتفاعی خود که به‌منظور بهره‌مندی بشریت بود، دور شده است. در پاسخ، OpenAI اسنادی منتشر کرد که نشان می‌داد ماسک از ساختار سودآور حمایت کرده و حتی در سال ۲۰۱۷ به دنبال کنترل اکثریت شرکت بوده است. مدیرعامل OpenAI، سم آلتمن، ماسک را «قلدری آشکار» توصیف کرد.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]