Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 متأسفانه هوش مصنوعی نمی‌تواند انتشار اخبار جعلی را متوقف کند

متأسفانه هوش مصنوعی نمی‌تواند انتشار اخبار جعلی را متوقف کند

زمان مطالعه: 3 دقیقه

دروغ‌پراکنی سالیان سال در  جنگ‌ها و استراتژی‌های نظامی کاربرد داشته است؛ اما بدون شک به‌کارگیری فناوری‌های هوشمند و رسانه‌های اجتماعی آن را تشدید کرده است؛ زیرا این فناوری‌های ارتباطی راه‌های کم‌هزینه و بهینه‌ای برای انتشار اطلاعات در سرتاسر دنیا ایجاد کرده‌اند.

اما پرسش چند میلیون دلاری این است که آیا امکان حل این مسئله با استفاده از فناوری وجود دارد؟

در واقع، توسعه مستمر راه‌حل‌های فناوری جدید، مانند هوش مصنوعی، ممکن است بخشی از راه‌حل باشد.

شرکت‌های فناوری و شرکت‌های رسانه‌های اجتماعی در حال کار بر روی شناسایی خودکار اخبار جعلی از طریق پردازش زبان طبیعی، یادگیری ماشین و تجزیه و تحلیل شبکه هستند. الگوریتم اطلاعات را به‌عنوان «اخبار جعلی» شناسایی می‌کند و آن‌ها را پایین‌تر رتبه‌بندی می‌کند، تا احتمال مواجهه کاربران با این اطلاعات را کاهش دهد.

تکرار و افشا

از دیدگاه روان‌شناختی، اگر فردی به‌طور مکرر در معرض اطلاعات یکسانی قرار گیرد، احتمال اینکه آن اطلاعات را باور کند، بالا می‌رود. زمانی که هوش مصنوعی اطلاعات نادرست را تشخیص دهد و فرکانس گردش آن‌ها را کم کند، می‌تواند چرخه الگوی مصرف اطلاعات تقویت‌شده را بشکند.

با این حال، عده بسیاری قابلیت تشخیص هوش مصنوعی را غیرقابل اطمینان قلمداد می‌کنند. مدل‌های تشخیص فعلی برای تعیین اعتبار متن مبتنی بر سنجش متن (محتوا) و شبکه‌‌های اجتماعی مورد استفاده هستند. به‌رغم تشخیص اصالت منابع و الگوی انتشار اخبار جعلی، مسئله اصلی کماکان نحوه‌ تأیید ماهیت واقعی محتوا با هوش مصنوعی است.

[irp posts=”5166″]

به لحاظ نظری، اگر حجم دیتای آموزشی کافی باشد، مدل دسته‌بندی مبتنی بر هوش مصنوعی می‌تواند تشخیص دهد، مقاله مورد بررسی حاوی اخبار جعلی است یا خیر؛ اما در واقعیت تشخیص اصالت یک متن مستلزم برخورداری از دانش سیاسی، فرهنگی و اجتماعی یا به‌عبارتی شعور جمعی است و الگوریتم‌های پردازش زبان طبیعی هنوز به آن مجهز نشده‌اند.

علاوه بر این، نسخه پیش‌انتشار پژوهشی نشان می‌دهد زمانی که اخبار جعلی برای حقیقی جلوه دادن، به عَمد دستخوش تغییر و ویرایش می‌شود، ممکن است بسیار متفاوت جلوه کند.

اخبار جعلی

تشریک مساعی انسان و هوش مصنوعی

از طرفی، درون‌مایه نیز تأثیر بسزایی بر تحلیل دسته‌بندی می‌گذارد. هوش مصنوعی برای تعیین اصالت متن به جای اینکه صرفاً محتوای خبر را بررسی کند، اغلب موضوع آن را مشخص می‌کند. برای مثال، احتمال اینکه مقاله‌های مرتبط با موضوع کرونا برچسب جعلی دریافت کنند، بیشتر است.

[irp posts=”6576″]

یکی از راه‌های حل این مسئله، استخدام نیروی انسانی است، تا در کنار هوش مصنوعی اصالت متن را تشخیص دهند. برای مثال، در سال 2018، وزارت دفاع لیتوانی برنامه‌ای مبتنی بر هوش مصنوعی ساخت که «ظرف دو دقیقه پس از انتشار، اخبار اطلاعات نادرست را علامت‌گذاری کرده و برای تحلیل بیشتر به یک کاربر انسانی می‌فرستاد.»

سایر کشورها نیز می‌توانند رویکرد مشابهی اتخاذ کرده و برای مقابله با انتشار اخبار جعلی یک واحد یا دپارتمان ملی ویژه تشکیل دهند یا از اتاق فکر، دانشگاه یا هر نهاد دیگری که بر روی راهکارهای مبتنی بر هوش مصنوعی تحقیق می‌کنند، حمایت کنند.

اجتناب از سانسور

در برخی موارد کنترل انتشار اخبار جعلی ممکن است سانسور و مصداقی از نقص حق آزادی بیان به شمار آید. گاهی حتی برای انسان نیز دشوار است درستی و اصالت اطلاعات را تعیین کند. بنابراین شاید بهتر است این سؤال را مطرح کنیم که بهتر است تعریف اخبار جعلی بر عهده چه کسی یا چه چیزی باشد؟ چگونه اطمینان حاصل کنیم که فیلترهای هوش مصنوعی ما را در تله مثبت کاذب گرفتار نخواهد کرد، به‌نحوی‌ که اطلاعات درست به دلیل وجود داده‌های مرتبط به اشتباه جعلی تشخیص داده شوند؟

[irp posts=”7852″]

سیستم هوش مصنوعی که برای شناسایی اخبار جعلی ایجاد می‌شود، می‌تواند کاربردهای ناشایستی داشته باشد. برای مثال، حکومت‌های استبدادی ممکن است هوش مصنوعی را دستاویزی برای حذف مقاله‌ها یا تحت تعقیب قرار دادن مخالفان خود قرار دهند و به این ترتیب، هر گونه به‌کارگیری هوش مصنوعی و قوانین مرتبط با آن و اقداماتی که ناشی از کاربردهای آن است، مستلزم سیستمی شفاف است که فردی بی‌طرف بر آن نظارت دارد.

از آنجا که مسئله تولید اطلاعات نادرست یک مسئله ادامه‌دار است، چالش‌های آن نیز در آینده پابرجا خواهند ماند، به‌ویژه زمانی که با مداخله خارجی همراه باشد. الگوریتمی که امروز ساخته شده است، ممکن است قادر به شناسایی اخبار جعلی در آینده نباشد.

فیلم جعلی از اوباما

گزارش بی‌بی‌سی درباره خطرات جعل عمیق

 

برای مثال، جعل عمیق که بسیار واقعی است و به‌سختی می‌توان دستکاری صوتی یا تصویری آن را تشخیص داد، احتمالاً در آینده نقش پررنگ‌تری در جنگ اطلاعاتی ایفا خواهد کرد. علاوه‌بر این، رهگیری و تفسیر اطلاعات نادرستی که از طریق پیام‌رسان‌هایی مانند واتساَپ و سیگنال دست به دست می‌شوند، به دلیل رمزگذاری سرتاسری دشوارتر شده است.

[irp posts=”19903″]

نتایج تحقیقی که به‌تازگی انجام شده است، نشان می‌دهد که 50% شهروندان کانادایی که در این پژوهش مشارکت داشته‌اند، به‌طور منظم از طریق پیام‎رسان خود اخبار جعلی دریافت کرده‌اند. قانون‌گذاری درباره این موضوع مستلزم ایجاد هماهنگی بین حریم خصوصی، امنیت فردی و مقابله با انتشار اطلاعات نادرست است.

اگرچه تشریک مساعی و تخصیص منابع در مبارزه دولت‌ها با انتشار اطلاعات نادرست با استفاده از هوش مصنوعی ارزش امتحان کردن را دارد، دقت و شفافیت نیز ضروری هستند. راهکارهای فنی جدید، متأسفانه، کلید طلایی حل این مشکل نیستند.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]