
بزرگترین شکستهای هوش مصنوعی در سال ۲۰۲۴
سال گذشته برای افرادی که در حوزه هوش مصنوعی کار میکنند، بدون شک سالی بسیار شلوغ بود. شاهد رونمایی از محصولات موفق متعددی بودیم و حتی جوایز نوبل هم به این حوزه رسید. اما همه چیز به این آسانی پیش نرفت. هوش مصنوعی فناوری غیرقابلپیشبینی است و دسترسی گستردهتر به مدلهای مولد باعث شده افراد مرزهای آن را به شیوههای جدید، عجیب و گاه خطرناک آزمایش کنند. در ادامه، برخی از بزرگترین شکستهای هوش مصنوعی در سال ۲۰۲۴ را مرور میکنیم.
۱. محتوای بیکیفیت تولیدشده توسط هوش مصنوعی همهجای اینترنت را فراگرفت
هوش مصنوعی مولد، تولید متن، تصویر، ویدئو و سایر انواع محتوا را بسیار آسان کرده است. تنها چند ثانیه پس از وارد کردن یک درخواست، این مدلها میتوانند خروجی موردنظر را ارائه دهند. به همین دلیل، بسیاری از افراد از آنها بهعنوان روشی سریع و ساده برای تولید انبوه محتوا استفاده میکنند. در سال ۲۰۲۴، این حجم عظیم از محتوای عمدتاً بیکیفیت بالاخره نامی به خود گرفت: «محتوای بیارزش هوش مصنوعی» (AI Slop).
از خبرنامههای ایمیلی و کتابهای منتشرشده در آمازون گرفته تا تبلیغات، مقالات وب و حتی تصاویر بیکیفیت در شبکههای اجتماعی، این نوع محتوا اکنون تقریباً در همهجای اینترنت دیده میشود. تصاویر احساسیتر (مانند کهنهسربازان مجروح، کودکان گریان یا نمادهایی از حمایت فلسطین) بیشتر به اشتراک گذاشته میشوند و در نتیجه، درآمد تبلیغاتی بیشتری را نصیب سازندگان آنها میکنند.
اما این پدیده فقط آزاردهنده نیست، بلکه تهدیدی واقعی برای آینده خود مدلهای هوش مصنوعی محسوب میشود. این مدلها با دادههایی که از اینترنت جمعآوری شدهاند آموزش میبینند و با افزایش تعداد وبسایتهای پر از محتوای بیکیفیت تولیدشده توسط هوش مصنوعی، احتمال اینکه عملکرد و خروجی این مدلها در آینده ضعیفتر شود، بسیار بالا میرود.
۲. هنر هوش مصنوعی درک ما از رویدادهای واقعی را دگرگون میکند
در سال ۲۰۲۴، تأثیر تصاویر سورئال تولیدشده توسط هوش مصنوعی کمکم به دنیای واقعی هم راه پیدا کرد. یکی از نمونههای بارز این اتفاق، “Willy’s Chocolate Experience” بود، یک رویداد تعاملی که به طور غیررسمی از کتاب چارلی و کارخانه شکلاتسازی اثر «رولد دال» الهامگرفته شده بود.
این رویداد در ماه فوریه به تیتر خبرها راه یافت، چرا که تصاویر تبلیغاتی ساختهشده با هوش مصنوعی، آن را بسیار باشکوهتر از آنچه واقعاً بود نشان داده بودند. اما در نهایت، شرکتکنندگان به انباری کم زرقوبرق و بیکیفیتی رسیدند که هیچ شباهتی به آن تبلیغات خیالی نداشت.
نمونه دیگر، اتفاقی بود که در دوبلین رخ داد. صدها نفر در خیابانهای این شهر برای یک رژه هالووین که اصلاً وجود نداشت، جمع شدند! یک وبسایت مستقر در پاکستان، با استفاده از هوش مصنوعی فهرستی از رویدادهای خیالی در دوبلین را ایجاد کرد که در آستانهی ۳۱ اکتبر در شبکههای اجتماعی به طور گسترده به اشتراک گذاشته شد. با اینکه آن وبسایت (myspirithalloween.com) بعداً حذف شد، اما این دو رویداد نشان دادند که چگونه اعتماد عمومی به محتوای تولیدشده توسط هوش مصنوعی میتواند به تجربههای گمراهکننده و حتی آسیبزا منجر شود.
۳. Grok به کاربران اجازه میدهد تقریباً هر تصویری را ایجاد کنند
اکثر ابزارهای هوش مصنوعی تولید تصویر، دارای محدودیتهای حفاظتی هستند، قوانینی که مشخص میکنند مدلهای هوش مصنوعی چه چیزهایی را میتوانند و یا نمیتوانند ایجاد کنند. این محدودیتها معمولاً برای جلوگیری از تولید محتوای خشونتآمیز، غیراخلاقی، غیرقانونی و سایر تصاویر مضر اعمال میشوند.
گاهی اوقات هم برای جلوگیری از نقض حقوق مالکیت معنوی به کار میروند، اما Grok، دستیار هوش مصنوعی ساختهشده توسط شرکت xAI که متعلق به ایلان ماسک است، تقریباً همه این اصول را نادیده میگیرد. این موضوع با دیدگاه ماسک که از آن بهعنوان مقابله با «هوش مصنوعی بیدار» یاد میکند، همخوانی دارد.
برخلاف سایر مدلهای تصویری که معمولاً از تولید تصاویر مربوط به افراد مشهور، محتوای دارای کپیرایت، خشونت یا تروریسم خودداری میکنند (مگر اینکه کاربران آنها را فریب دهند)، Grok بدون مشکل این نوع تصاویر را ایجاد میکند. مثلاً میتواند تصویری از دونالد ترامپ در حال شلیک یک بازوکا یا میکی موس در حال نگهداشتن یک بمب را تولید کند.
این مدل هوش مصنوعی از تولید تصاویر برهنه خودداری میکند، اما عدم تبعیت آن از قوانین، تلاش سایر شرکتها برای جلوگیری از تولید محتوای مخرب را بیاثر میکند.
۴. انتشار دیپفیکهای غیراخلاقی از تیلور سوئیفت در اینترنت
در ژانویه، تصاویر برهنه دیپفیک و غیرواقعی از خواننده مشهور، تیلور سوئیفت در رسانههای اجتماعی از جمله X (توییتر سابق) و فیسبوک منتشر شد. یک گروه در تلگرام، ابزار Designer مایکروسافت را فریب دادند تا این تصاویر غیراخلاقی را تولید کند. این اتفاق نشان داد که چگونه حتی با وجود محدودیتها، باز هم میتوان آنها را دور زد.
مایکروسافت به سرعت راههای سوءاستفاده از سیستم خود را مسدود کرد، اما این اتفاق ضعف جدی در سیاستهای نظارت بر محتوا در پلتفرمهای اجتماعی را آشکار کرد، چرا که این تصاویر برای روزها به طور گسترده در اینترنت دستبهدست میشدند و حذف نمیشدند.
البته نگرانکنندهترین واقعیت این است که هنوز در برابر پورن دیپفیکهای غیر رضایتی، تقریباً بیدفاع هستیم. با اینکه ابزارهایی مانند واتر مارکگذاری و مسمومسازی دادهها (Data Poisoning) میتوانند کمککننده باشند، اما برای اینکه واقعاً تأثیرگذار شوند، باید در مقیاس بسیار وسیعتری مورد استفاده قرار گیرند.
۵. چتباتهای تجاری از کنترل خارج شدند
با گسترش هوش مصنوعی، شرکتها به سرعت در حال پذیرش ابزارهای مولد برای کاهش هزینهها و افزایش بهرهوری هستند، اما مشکل اینجاست که چتباتها اطلاعات اشتباه تولید میکنند و قابلاعتماد نیستند.
شرکت ایر کانادا این موضوع را به سختی تجربه کرد. چتبات این شرکت به یکی از مشتریان توصیه کرد که از سیاست بازپرداخت ویژهای برای سوگواری استفاده کند، در حالی که چنین سیاستی اصلاً وجود نداشت! در فوریه، با وجود اینکه ایر کانادا ادعا میکرد چتبات یک «شخصیت حقوقی مستقل» است و خودش مسئول اقداماتش است، دادگاه دعاوی کوچک کانادا شکایت مشتری را به رسمیت شناخت و به نفع او رأی داد.
در نمونههای دیگر از خرابکاری چتباتها، ربات شرکت تحویل کالا DPD، بهراحتی فحاشی میکرد و خود را «بهدردنخور» مینامید. همچنین، یک چتبات که قرار بود به ساکنان نیویورک اطلاعات دقیق درباره دولت محلیشان بدهد، به جای انجام این کار، به مردم راههای نقض قانون را آموزش میداد!
۶. گجتهای هوش مصنوعی بازار را تصاحب نکردند
صنعت هوش مصنوعی در سال ۲۰۲۴ تلاش کرد دستیارهای سختافزاری را به موفقیت برساند، اما در این مسیر شکست خورد. شرکت Humane تلاش کرد با معرفی Ai Pin (یک گجت پوشیدنی که به یقه لباس متصل میشود)، مشتریان را جذب کند، اما حتی پس از کاهش قیمت، این محصول فروش ضعیفی داشت.
دستگاه Rabbit R1 (یک دستیار شخصی مبتنی بر ChatGPT) نیز سرنوشتی مشابه پیدا کرد. نقدهای منفی و گزارشهای متعددی از کند بودن و مشکلات فنی آن منتشر شد. در نهایت، به نظر میرسید که هر دو محصول سعی داشتند «مشکلی را حل کنند که اصلاً وجود نداشت».
۷. نتایج جستجوی هوش مصنوعی از کنترل خارج شد
آیا تا به حال چسب را به پیتزا اضافه کردهاید یا یک سنگ کوچک خوردهاید؟ اینها فقط برخی از پیشنهادات عجیب و غریبی بودند که قابلیت AI Overviews گوگل در ماه مه به کاربران اینترنت ارائه کرد؛ زمانی که این غول جستوجو پاسخهای تولیدشده توسط هوش مصنوعی را در بالای نتایج جستوجو نمایش داد.
مشکل این بود که سیستمهای هوش مصنوعی نمیتوانند تفاوت بین یک خبر واقعی و یک پست طنز در Reddit را تشخیص دهند. کاربران هم به سرعت به دنبال عجیبترین پاسخهایی رفتند که این قابلیت میتوانست تولید کند.
اما این اشتباهات فقط جنبه طنز نداشتند، بلکه میتوانند پیامدهای خطرناکی هم داشته باشند. یکی از قابلیتهای جدید آیفون که اعلانهای اپلیکیشنها را گروهبندی و خلاصهسازی میکند، بهتازگی یک تیتر جعلی از BBC News تولید کرد. این خلاصه اشتباه به دروغ اعلام کرد که «لوئیجی مانگیونه» که به قتل مدیرعامل شرکت بیمه سلامت، برایان تامپسون، متهم شده بود، خودکشی کرده است
در یک مورد دیگر، همین قابلیت تیتر نادرستی درباره «دستگیری بنیامین نتانیاهو، نخستوزیر اسرائیل» تولید کرد. چنین اشتباهاتی بهراحتی میتوانند اطلاعات غلط را در سطح وسیع منتشر کنند و اعتماد عمومی به رسانهها را خدشهدار کنند.