اشتباهات تاریخی هوش مصنوعی در ۲۰۲۴
۱۲ ماه گذشته، یکی از پرکارترین ماهها برای فعالان حوزه هوش مصنوعی بوده است؛ تعداد محصولات هوش مصنوعی که در این بازه زمانی به شکل موفق عرضه شدند، غیرقابل شمارش است و حتی جایزه نوبل این سال هم به فعالین و محققین هوش مصنوعی اهدا شد.
اما باید در نظر داشت که فناوری هوش مصنوعی غیرقابل پیشبینی است و این ویژگی آن منجر شده است که در کنار دستاوردهای تاریخی، اشتباهات بزرگی نیز در این حوزه اتفاق افتد. در این گزارش به بزرگترین اشتباهات هوش مصنوعی در ۲۰۲۴، پرداخته شده است:
شیب کاهش کیفیت با نفوذ هوش مصنوعی در هر گوشه از اینترنت
هوش مصنوعی مولد ایجاد تصاویر، متن و ویدئوها را آسان کرده است و این کار را تنها با ارسال یک دستور از کاربر طی چند ثانیه انجام میدهد؛ درواقع مدلهای هوش مصنوعی تولید محتوا را آسان و سریع کردهاند؛ اما منجر به کاهش کیفیت در رسانهها شدهاند، موضوعی که تحت عنوان «شیب هوش مصنوعی» شناخته میشود.
شیب هوش مصنوعی اکنون تقریباً در هر گوشه اینترنت یافت میشود، از خبرنامهها و کتابهای فروخته شده در آمازون گرفته تا آگهیها و مقالات در سرتاسر وب و حتی تصاویری که در شبکههای اجتماعی به اشتراک گذاشته میشود.
هر چه این تصاویر از نظر احساسی بیشتر تحریککننده باشند (کهنه سربازان مجروح، کودکان گریان)، احتمال اشتراکگذاری آنها بیشتر است و در نتیجه تعامل و درآمد تبلیغاتی بیشتر برای سازندگان باهوش آنها خواهد بود.
شیب هوش مصنوعی فقط آزاردهنده نیست، افزایش آن یک مشکل واقعی برای آینده همان مدلی است که به تولید آن کمک کردند. از آنجایی که این مدلها بر اساس دادههای اینترنت آموزش داده میشوند، افزایش تعداد وبسایتهای ناخواسته حاوی زبالههای هوش مصنوعی، به این معنی است که خروجی مدلها و عملکرد آنها به طور پیوسته بدتر میشود.
هنر هوش مصنوعی ما را از رویدادهای واقعی منحرف میکند
۲۰۲۴، سالی بود که اثرات تصاویر سوررئال هوش مصنوعی شروع به نفوذ به زندگی واقعی ما کرد؛ به عنوان مثال صدها نفر در خیابانهای دوبلین برای رژه هالووینی که وجود نداشت، صف کشیدند. این اتفاق نشان میدهد که چگونه اعتماد عمومی نابجا به مطالب آنلاین تولید شده توسط هوش مصنوعی میتواند ما را اذیت کند.
گروک به کاربران اجازه میدهد از هر سناریویی تصویر ایجاد کنند
اکثریت قریب به اتفاق تولیدکنندههای تصویر هوش مصنوعی دارای فیلترهایی هستند و قوانینی را دیکته میکنند که مدلهای هوش مصنوعی چه کاری میتوانند انجام دهند و چه کاری نمیتوانند انجام دهند، تا از ایجاد محتوای خشونتآمیز، صریح، غیرقانونی و مضر توسط کاربران جلوگیری شود.
اما گروک، دستیار هوش مصنوعی شرکت ایلان ماسک، به نام xAI، تقریباً همه این اصول را نادیده میگیرد و ماسک آنچه را «هوش مصنوعی بیدار» مینامد، عرضه کرده است.
در حالی که سایر مدلهای هوش مصنوعی از ایجاد تصاویر افراد مشهور، مطالب دارای حق چاپ، خشونت یا تروریسم خودداری میکنند، مگر اینکه فریب بخورند و این قوانین را نادیده بگیرند، گروک با خوشحالی تصاویری از دونالد ترامپ در حال شلیک بازوکا یا میکی موس که بمب در دست دارد تولید میکند.
انتشار تصاویر دیپفیک صریح جنسی تیلور سوئیفت در فضای مجازی
در ماه ژانویه، دیپفیکهای جنسی و صریح تیلور سوئیفت در رسانههای اجتماعی از جمله X و فیسبوک شروع به پخش شد.
یک گروه تلگرامی، تولیدکننده تصویر هوش مصنوعی مایکروسافت را فریب داد تا تصاویر واضح جنسی ایجاد کند و نشان داد که چگونه میتوان مدلهای مولد هوش مصنوعی را حتی زمانی که در جای خود هستند دور زد.
در حالی که مایکروسافت به سرعت راههای خطای سیستم را بست، پس از اینکه پستهای حاوی تصاویر به طور گسترده منتشر شد و برای روزها در دست کاربران در حال چرخش بود، اما این حادثه بر سیاستهای ضعیف نظارت بر محتوای این پلتفرمها تأکید کرد.
اما دلهرهآورترین نکته این است که ما هنوز چقدر در مبارزه با پورنهای غیرقانونی دیپفیک ناتوان هستیم.
چتباتهای تجاری به هم ریختند
با گسترش هوش مصنوعی، کسبوکارها برای استفاده از ابزارهای مولد در راستای صرفهجویی در زمان و هزینه و به حداکثر رساندن کارایی رقابت میکنند. مشکل این است که نمیتوان به چتباتها برای ارائه اطلاعات دقیق اعتماد کرد.
چتبات شرکت هوایی «ایر کانادا» به مشتری توصیه کرد که از خط مشی بازپرداختی که وجود نداشت پیروی کند. در نمونههای برجسته دیگر که چگونه چتباتها میتوانند بیش از آنکه مفید باشند، آسیب برسانند، میتوان به ربات شرکت تحویل DPD اشاره کرد که با خوشحالی سوگند خورد و خود را بیفایده خواند.
خطا در خلاصههای جستجوی هوش مصنوعی
آیا تا به حال به یک پیتزا چسب اضافه کردهاید یا یک سنگ کوچک خوردهاید؟ اینها تنها برخی از پیشنهادات عجیب و غریبی است که حاصل نتایج جستجوی هوش مصنوعی است و آن را به کاربران وب ارائه کرده است.
مشکل این بود که سیستمهای هوش مصنوعی نمیتوانند تفاوت بین یک خبر واقعی و یک پست خندهدار در Reddit را تشخیص دهند.