برترین متخصصین

از سراسر دنیا

مجموعه وبینارهای مدل‌های بزرگ زبانی (LLM)

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
گزارش
مصاحبه
 اشتباهات تاریخی هوش مصنوعی در ۲۰۲۴

اشتباهات تاریخی هوش مصنوعی در ۲۰۲۴

زمان مطالعه: 3 دقیقه

۱۲ ماه گذشته، یکی از پرکارترین ماه‌ها برای فعالان حوزه هوش مصنوعی بوده است؛ تعداد محصولات هوش مصنوعی که در این بازه زمانی به شکل موفق عرضه شدند، غیرقابل شمارش است و حتی جایزه نوبل این سال هم به فعالین و محققین هوش مصنوعی اهدا شد.

اما باید در نظر داشت که فناوری هوش مصنوعی غیرقابل پیش‌بینی است و این ویژگی آن منجر شده است که در کنار دستاوردهای تاریخی، اشتباهات بزرگی نیز در این حوزه اتفاق افتد. در این گزارش به بزرگ‌ترین اشتباهات هوش مصنوعی در ۲۰۲۴، پرداخته شده است:

شیب کاهش کیفیت با نفوذ هوش مصنوعی در هر گوشه از اینترنت

هوش مصنوعی مولد ایجاد تصاویر، متن و ویدئوها را آسان کرده است و این کار را تنها با ارسال یک دستور از کاربر طی چند ثانیه انجام می‌دهد؛ درواقع مدل‌های هوش مصنوعی تولید محتوا را آسان و سریع کرده‌اند؛ اما منجر به کاهش کیفیت در رسانه‌ها شده‌اند، موضوعی که تحت عنوان «شیب هوش مصنوعی» شناخته می‌شود.

شیب هوش مصنوعی اکنون تقریباً در هر گوشه اینترنت یافت می‌شود، از خبرنامه‌ها و کتاب‌های فروخته شده در آمازون گرفته تا آگهی‌ها و مقالات در سرتاسر وب و حتی تصاویری که در شبکه‌های اجتماعی به اشتراک گذاشته می‌شود.

هر چه این تصاویر از نظر احساسی بیشتر تحریک‌کننده باشند (کهنه سربازان مجروح، کودکان گریان)، احتمال اشتراک‌گذاری آنها بیشتر است و در نتیجه تعامل و درآمد تبلیغاتی بیشتر برای سازندگان باهوش آنها خواهد بود.

شیب هوش مصنوعی فقط آزاردهنده نیست، افزایش آن یک مشکل واقعی برای آینده همان مدلی است که به تولید آن کمک کردند. از آنجایی که این مدل‌ها بر اساس داده‌های اینترنت آموزش داده می‌شوند، افزایش تعداد وب‌سایت‌های ناخواسته حاوی زباله‌های هوش مصنوعی، به این معنی است که خروجی مدل‌ها و عملکرد آنها به طور پیوسته بدتر می‌شود.

هنر هوش مصنوعی ما را از رویدادهای واقعی منحرف می‌کند

۲۰۲۴، سالی بود که اثرات تصاویر سوررئال هوش مصنوعی شروع به نفوذ به زندگی واقعی ما کرد؛ به عنوان مثال صدها نفر در خیابان‌های دوبلین برای رژه هالووینی که وجود نداشت، صف کشیدند. این اتفاق نشان می‌دهد که چگونه اعتماد عمومی نابجا به مطالب آنلاین تولید شده توسط هوش مصنوعی می‌تواند ما را اذیت کند.

گروک  به کاربران اجازه می‌دهد از هر سناریویی تصویر ایجاد کنند

اکثریت قریب به اتفاق تولیدکننده‌های تصویر هوش مصنوعی دارای فیلترهایی هستند و قوانینی را دیکته می‌کنند که مدل‌های هوش مصنوعی چه کاری می‌توانند انجام دهند و چه کاری نمی‌توانند انجام دهند، تا از ایجاد محتوای خشونت‌آمیز، صریح، غیرقانونی و مضر توسط کاربران جلوگیری شود.

اما گروک، دستیار هوش مصنوعی شرکت ایلان ماسک، به نام xAI، تقریباً همه این اصول را نادیده می‌گیرد و ماسک آنچه را «هوش مصنوعی بیدار» می‌نامد، عرضه کرده است.

در حالی که سایر مدل‌های هوش مصنوعی از ایجاد تصاویر افراد مشهور، مطالب دارای حق چاپ، خشونت یا تروریسم خودداری می‌کنند، مگر اینکه فریب بخورند و این قوانین را نادیده بگیرند، گروک با خوشحالی تصاویری از دونالد ترامپ در حال شلیک بازوکا یا میکی موس که بمب در دست دارد تولید می‌کند.

انتشار تصاویر دیپ‌فیک صریح جنسی تیلور سوئیفت در فضای مجازی

در ماه ژانویه، دیپ‌فیک‌های جنسی و صریح تیلور سوئیفت در رسانه‌های اجتماعی از جمله X و فیس‌بوک شروع به پخش شد.

یک گروه تلگرامی، تولیدکننده تصویر هوش مصنوعی مایکروسافت را فریب داد تا تصاویر واضح جنسی ایجاد کند و نشان داد که چگونه می‌توان مدل‌های مولد هوش مصنوعی را حتی زمانی که در جای خود هستند دور زد.

در حالی که مایکروسافت به سرعت راه‌های خطای سیستم را بست، پس از اینکه پست‌های حاوی تصاویر به طور گسترده منتشر شد و برای روزها در دست کاربران در حال چرخش بود، اما این حادثه بر سیاست‌های ضعیف نظارت بر محتوای این پلتفرم‌ها تأکید کرد.

اما دلهره‌آورترین نکته این است که ما هنوز چقدر در مبارزه با پورن‌های غیرقانونی دیپ‌فیک ناتوان هستیم.

چت‌بات‌های تجاری به هم ریختند

با گسترش هوش مصنوعی، کسب‌وکارها برای استفاده از ابزارهای مولد در راستای صرفه‌جویی در زمان و هزینه و به حداکثر رساندن کارایی رقابت می‌کنند. مشکل این است که نمی‌توان به چت‌بات‌ها برای ارائه اطلاعات دقیق اعتماد کرد.

چت‌بات شرکت هوایی «ایر کانادا» به مشتری توصیه کرد که از خط مشی بازپرداختی که وجود نداشت پیروی کند. در نمونه‌های برجسته دیگر که چگونه چت‌بات‌ها می‌توانند بیش از آنکه مفید باشند، آسیب برسانند، می‌توان به ربات شرکت تحویل DPD اشاره کرد که با خوشحالی سوگند خورد و خود را بی‌فایده خواند.

خطا در خلاصه‌های جستجوی هوش مصنوعی

آیا تا به حال به یک پیتزا چسب اضافه کرده‌اید یا یک سنگ کوچک خورده‌اید؟ اینها تنها برخی از پیشنهادات عجیب و غریبی است که حاصل نتایج جستجوی هوش مصنوعی است و آن را به کاربران وب ارائه کرده است.

مشکل این بود که سیستم‌های هوش مصنوعی نمی‌توانند تفاوت بین یک خبر واقعی و یک پست خنده‌دار در Reddit را تشخیص دهند.

منبع

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]