برترین متخصصین

از سراسر دنیا

مجموعه وبینارهای مدل‌های بزرگ زبانی (LLM)

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
گزارش
مصاحبه
 بزرگ‌ترین شکست‌های هوش مصنوعی در سال ۲۰۲۴

بزرگ‌ترین شکست‌های هوش مصنوعی در سال ۲۰۲۴

زمان مطالعه: 5 دقیقه

سال گذشته برای افرادی که در حوزه هوش مصنوعی کار می‌کنند، بدون شک سالی بسیار شلوغ بود. شاهد رونمایی از محصولات موفق متعددی بودیم و حتی جوایز نوبل هم به این حوزه رسید. اما همه چیز به این آسانی پیش نرفت. هوش مصنوعی فناوری غیرقابل‌پیش‌بینی است و دسترسی گسترده‌تر به مدل‌های مولد باعث شده افراد مرزهای آن را به شیوه‌های جدید، عجیب و گاه خطرناک آزمایش کنند. در ادامه، برخی از بزرگ‌ترین شکست‌های هوش مصنوعی در سال ۲۰۲۴ را مرور می‌کنیم.

۱. محتوای بی‌کیفیت تولیدشده توسط هوش مصنوعی همه‌جای اینترنت را فراگرفت

هوش مصنوعی مولد، تولید متن، تصویر، ویدئو و سایر انواع محتوا را بسیار آسان کرده است. تنها چند ثانیه پس از وارد کردن یک درخواست، این مدل‌ها می‌توانند خروجی موردنظر را ارائه دهند. به همین دلیل، بسیاری از افراد از آن‌ها به‌عنوان روشی سریع و ساده برای تولید انبوه محتوا استفاده می‌کنند. در سال ۲۰۲۴، این حجم عظیم از محتوای عمدتاً بی‌کیفیت بالاخره نامی به خود گرفت: «محتوای بی‌ارزش هوش مصنوعی» (AI Slop).

از خبرنامه‌های ایمیلی و کتاب‌های منتشرشده در آمازون گرفته تا تبلیغات، مقالات وب و حتی تصاویر بی‌کیفیت در شبکه‌های اجتماعی، این نوع محتوا اکنون تقریباً در همه‌جای اینترنت دیده می‌شود. تصاویر احساسی‌تر (مانند کهنه‌سربازان مجروح، کودکان گریان یا نمادهایی از حمایت فلسطین) بیشتر به اشتراک گذاشته می‌شوند و در نتیجه، درآمد تبلیغاتی بیشتری را نصیب سازندگان آن‌ها می‌کنند.

اما این پدیده فقط آزاردهنده نیست، بلکه تهدیدی واقعی برای آینده خود مدل‌های هوش مصنوعی محسوب می‌شود. این مدل‌ها با داده‌هایی که از اینترنت جمع‌آوری شده‌اند آموزش می‌بینند و با افزایش تعداد وب‌سایت‌های پر از محتوای بی‌کیفیت تولیدشده توسط هوش مصنوعی، احتمال اینکه عملکرد و خروجی این مدل‌ها در آینده ضعیف‌تر شود، بسیار بالا می‌رود.

۲. هنر هوش مصنوعی درک ما از رویدادهای واقعی را دگرگون می‌کند

در سال ۲۰۲۴، تأثیر تصاویر سورئال تولیدشده توسط هوش مصنوعی کم‌کم به دنیای واقعی هم راه پیدا کرد. یکی از نمونه‌های بارز این اتفاق، “Willy’s Chocolate Experience” بود، یک رویداد تعاملی که به طور غیررسمی از کتاب چارلی و کارخانه شکلات‌سازی اثر «رولد دال» الهام‌گرفته شده بود.

این رویداد در ماه فوریه به تیتر خبرها راه یافت، چرا که تصاویر تبلیغاتی ساخته‌شده با هوش مصنوعی، آن را بسیار باشکوه‌تر از آنچه واقعاً بود نشان داده بودند. اما در نهایت، شرکت‌کنندگان به انباری کم زرق‌وبرق و بی‌کیفیتی رسیدند که هیچ شباهتی به آن تبلیغات خیالی نداشت.

نمونه دیگر، اتفاقی بود که در دوبلین رخ داد. صدها نفر در خیابان‌های این شهر برای یک رژه هالووین که اصلاً وجود نداشت، جمع شدند! یک وب‌سایت مستقر در پاکستان، با استفاده از هوش مصنوعی فهرستی از رویدادهای خیالی در دوبلین را ایجاد کرد که در آستانه‌ی ۳۱ اکتبر در شبکه‌های اجتماعی به طور گسترده به اشتراک گذاشته شد. با اینکه آن وب‌سایت (myspirithalloween.com) بعداً حذف شد، اما این دو رویداد نشان دادند که چگونه اعتماد عمومی به محتوای تولیدشده توسط هوش مصنوعی می‌تواند به تجربه‌های گمراه‌کننده و حتی آسیب‌زا منجر شود.

۳. Grok به کاربران اجازه می‌دهد تقریباً هر تصویری را ایجاد کنند

اکثر ابزارهای هوش مصنوعی تولید تصویر، دارای محدودیت‌های حفاظتی هستند، قوانینی که مشخص می‌کنند مدل‌های هوش مصنوعی چه چیزهایی را می‌توانند و یا نمی‌توانند ایجاد کنند. این محدودیت‌ها معمولاً برای جلوگیری از تولید محتوای خشونت‌آمیز، غیراخلاقی، غیرقانونی و سایر تصاویر مضر اعمال می‌شوند.

گاهی اوقات هم برای جلوگیری از نقض حقوق مالکیت معنوی به کار می‌روند، اما Grok، دستیار هوش مصنوعی ساخته‌شده توسط شرکت xAI که متعلق به ایلان ماسک است، تقریباً همه این اصول را نادیده می‌گیرد. این موضوع با دیدگاه ماسک که از آن به‌عنوان مقابله با «هوش مصنوعی بیدار» یاد می‌کند، همخوانی دارد.

برخلاف سایر مدل‌های تصویری که معمولاً از تولید تصاویر مربوط به افراد مشهور، محتوای دارای کپی‌رایت، خشونت یا تروریسم خودداری می‌کنند (مگر اینکه کاربران آن‌ها را فریب دهند)، Grok بدون مشکل این نوع تصاویر را ایجاد می‌کند. مثلاً می‌تواند تصویری از دونالد ترامپ در حال شلیک یک بازوکا یا میکی موس در حال نگه‌داشتن یک بمب را تولید کند.

این مدل هوش مصنوعی از تولید تصاویر برهنه خودداری می‌کند، اما عدم تبعیت آن از قوانین، تلاش سایر شرکت‌ها برای جلوگیری از تولید محتوای مخرب را بی‌اثر می‌کند.

۴. انتشار دیپ‌فیک‌های غیراخلاقی از تیلور سوئیفت در اینترنت

در ژانویه، تصاویر برهنه دیپ‌فیک و غیرواقعی از خواننده مشهور، تیلور سوئیفت در رسانه‌های اجتماعی از جمله X (توییتر سابق) و فیس‌بوک منتشر شد. یک گروه در تلگرام، ابزار Designer مایکروسافت را فریب دادند تا این تصاویر غیراخلاقی را تولید کند. این اتفاق نشان داد که چگونه حتی با وجود محدودیت‌ها، باز هم می‌توان آن‌ها را دور زد.

مایکروسافت به سرعت راه‌های سوءاستفاده از سیستم خود را مسدود کرد، اما این اتفاق ضعف جدی در سیاست‌های نظارت بر محتوا در پلتفرم‌های اجتماعی را آشکار کرد، چرا که این تصاویر برای روزها به طور گسترده در اینترنت دست‌به‌دست می‌شدند و حذف نمی‌شدند.

البته نگران‌کننده‌ترین واقعیت این است که هنوز در برابر پورن دیپ‌فیک‌های غیر رضایتی، تقریباً بی‌دفاع هستیم. با اینکه ابزارهایی مانند واتر مارک‌گذاری و مسموم‌سازی داده‌ها (Data Poisoning) می‌توانند کمک‌کننده باشند، اما برای اینکه واقعاً تأثیرگذار شوند، باید در مقیاس بسیار وسیع‌تری مورد استفاده قرار گیرند.

۵. چت‌بات‌های تجاری از کنترل خارج شدند

با گسترش هوش مصنوعی، شرکت‌ها به سرعت در حال پذیرش ابزارهای مولد برای کاهش هزینه‌ها و افزایش بهره‌وری هستند، اما مشکل اینجاست که چت‌بات‌ها اطلاعات اشتباه تولید می‌کنند و قابل‌اعتماد نیستند.

شرکت ایر کانادا این موضوع را به سختی تجربه کرد. چت‌بات این شرکت به یکی از مشتریان توصیه کرد که از سیاست بازپرداخت ویژه‌ای برای سوگواری استفاده کند، در حالی که چنین سیاستی اصلاً وجود نداشت! در فوریه، با وجود اینکه ایر کانادا ادعا می‌کرد چت‌بات یک «شخصیت حقوقی مستقل» است و خودش مسئول اقداماتش است، دادگاه دعاوی کوچک کانادا شکایت مشتری را به رسمیت شناخت و به نفع او رأی داد.

در نمونه‌های دیگر از خرابکاری چت‌بات‌ها، ربات شرکت تحویل کالا DPD، به‌راحتی فحاشی می‌کرد و خود را «به‌دردنخور» می‌نامید. همچنین، یک چت‌بات که قرار بود به ساکنان نیویورک اطلاعات دقیق درباره دولت محلی‌شان بدهد، به جای انجام این کار، به مردم راه‌های نقض قانون را آموزش می‌داد!

۶. گجت‌های هوش مصنوعی بازار را تصاحب نکردند

صنعت هوش مصنوعی در سال ۲۰۲۴ تلاش کرد دستیارهای سخت‌افزاری را به موفقیت برساند، اما در این مسیر شکست خورد. شرکت Humane تلاش کرد با معرفی Ai Pin (یک گجت پوشیدنی که به یقه لباس متصل می‌شود)، مشتریان را جذب کند، اما حتی پس از کاهش قیمت، این محصول فروش ضعیفی داشت.

دستگاه Rabbit R1 (یک دستیار شخصی مبتنی بر ChatGPT) نیز سرنوشتی مشابه پیدا کرد. نقدهای منفی و گزارش‌های متعددی از کند بودن و مشکلات فنی آن منتشر شد. در نهایت، به نظر می‌رسید که هر دو محصول سعی داشتند «مشکلی را حل کنند که اصلاً وجود نداشت».

۷. نتایج جستجوی هوش مصنوعی از کنترل خارج شد

آیا تا به حال چسب را به پیتزا اضافه کرده‌اید یا یک سنگ کوچک خورده‌اید؟ این‌ها فقط برخی از پیشنهادات عجیب و غریبی بودند که قابلیت AI Overviews گوگل در ماه مه به کاربران اینترنت ارائه کرد؛ زمانی که این غول جست‌وجو پاسخ‌های تولیدشده توسط هوش مصنوعی را در بالای نتایج جست‌وجو نمایش داد.

مشکل این بود که سیستم‌های هوش مصنوعی نمی‌توانند تفاوت بین یک خبر واقعی و یک پست طنز در Reddit را تشخیص دهند. کاربران هم به سرعت به دنبال عجیب‌ترین پاسخ‌هایی رفتند که این قابلیت می‌توانست تولید کند.

اما این اشتباهات فقط جنبه طنز نداشتند، بلکه می‌توانند پیامدهای خطرناکی هم داشته باشند. یکی از قابلیت‌های جدید آیفون که اعلان‌های اپلیکیشن‌ها را گروه‌بندی و خلاصه‌سازی می‌کند، به‌تازگی یک تیتر جعلی از BBC News تولید کرد. این خلاصه اشتباه به دروغ اعلام کرد که «لوئیجی مانگیونه» که به قتل مدیرعامل شرکت بیمه سلامت، برایان تامپسون، متهم شده بود، خودکشی کرده است

در یک مورد دیگر، همین قابلیت تیتر نادرستی درباره «دستگیری بنیامین نتانیاهو، نخست‌وزیر اسرائیل» تولید کرد. چنین اشتباهاتی به‌راحتی می‌توانند اطلاعات غلط را در سطح وسیع منتشر کنند و اعتماد عمومی به رسانه‌ها را خدشه‌دار کنند.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]