اخبار جعلی
آموزش‌های پیشرفته هوش مصنوعیاخباربینایی ماشین

متأسفانه هوش مصنوعی نمی‌تواند انتشار اخبار جعلی را متوقف کند

0
زمان مطالعه: ۴ دقیقه

دروغ‌پراکنی سالیان سال در  جنگ‌ها و استراتژی‌های نظامی کاربرد داشته است؛ اما بدون شک به‌کارگیری فناوری‌های هوشمند و رسانه‌های اجتماعی آن را تشدید کرده است؛ زیرا این فناوری‌های ارتباطی راه‌های کم‌هزینه و بهینه‌ای برای انتشار اطلاعات در سرتاسر دنیا ایجاد کرده‌اند.

اما پرسش چند میلیون دلاری این است که آیا امکان حل این مسئله با استفاده از فناوری وجود دارد؟

در واقع، توسعه مستمر راه‌حل‌های فناوری جدید، مانند هوش مصنوعی، ممکن است بخشی از راه‌حل باشد.

شرکت‌های فناوری و شرکت‌های رسانه‌های اجتماعی در حال کار بر روی شناسایی خودکار اخبار جعلی از طریق پردازش زبان طبیعی، یادگیری ماشین و تجزیه و تحلیل شبکه هستند. الگوریتم اطلاعات را به‌عنوان «اخبار جعلی» شناسایی می‌کند و آن‌ها را پایین‌تر رتبه‌بندی می‌کند، تا احتمال مواجهه کاربران با این اطلاعات را کاهش دهد.

تکرار و افشا

از دیدگاه روان‌شناختی، اگر فردی به‌طور مکرر در معرض اطلاعات یکسانی قرار گیرد، احتمال اینکه آن اطلاعات را باور کند، بالا می‌رود. زمانی که هوش مصنوعی اطلاعات نادرست را تشخیص دهد و فرکانس گردش آن‌ها را کم کند، می‌تواند چرخه الگوی مصرف اطلاعات تقویت‌شده را بشکند.

با این حال، عده بسیاری قابلیت تشخیص هوش مصنوعی را غیرقابل اطمینان قلمداد می‌کنند. مدل‌های تشخیص فعلی برای تعیین اعتبار متن مبتنی بر سنجش متن (محتوا) و شبکه‌‌های اجتماعی مورد استفاده هستند. به‌رغم تشخیص اصالت منابع و الگوی انتشار اخبار جعلی، مسئله اصلی کماکان نحوه‌ تأیید ماهیت واقعی محتوا با هوش مصنوعی است.

دیپ فیک جدی ترین تهدید در زمینه جرائم مرتبط با هوش مصنوعی است

به لحاظ نظری، اگر حجم دیتای آموزشی کافی باشد، مدل دسته‌بندی مبتنی بر هوش مصنوعی می‌تواند تشخیص دهد، مقاله مورد بررسی حاوی اخبار جعلی است یا خیر؛ اما در واقعیت تشخیص اصالت یک متن مستلزم برخورداری از دانش سیاسی، فرهنگی و اجتماعی یا به‌عبارتی شعور جمعی است و الگوریتم‌های پردازش زبان طبیعی هنوز به آن مجهز نشده‌اند.

علاوه بر این، نسخه پیش‌انتشار پژوهشی نشان می‌دهد زمانی که اخبار جعلی برای حقیقی جلوه دادن، به عَمد دستخوش تغییر و ویرایش می‌شود، ممکن است بسیار متفاوت جلوه کند.

اخبار جعلی

تشریک مساعی انسان و هوش مصنوعی

از طرفی، درون‌مایه نیز تأثیر بسزایی بر تحلیل دسته‌بندی می‌گذارد. هوش مصنوعی برای تعیین اصالت متن به جای اینکه صرفاً محتوای خبر را بررسی کند، اغلب موضوع آن را مشخص می‌کند. برای مثال، احتمال اینکه مقاله‌های مرتبط با موضوع کرونا برچسب جعلی دریافت کنند، بیشتر است.

تشخیص دیپ فیک و تصاویر جعلی، توسط هوش مصنوعی (بخش اول)

یکی از راه‌های حل این مسئله، استخدام نیروی انسانی است، تا در کنار هوش مصنوعی اصالت متن را تشخیص دهند. برای مثال، در سال ۲۰۱۸، وزارت دفاع لیتوانی برنامه‌ای مبتنی بر هوش مصنوعی ساخت که «ظرف دو دقیقه پس از انتشار، اخبار اطلاعات نادرست را علامت‌گذاری کرده و برای تحلیل بیشتر به یک کاربر انسانی می‌فرستاد.»

سایر کشورها نیز می‌توانند رویکرد مشابهی اتخاذ کرده و برای مقابله با انتشار اخبار جعلی یک واحد یا دپارتمان ملی ویژه تشکیل دهند یا از اتاق فکر، دانشگاه یا هر نهاد دیگری که بر روی راهکارهای مبتنی بر هوش مصنوعی تحقیق می‌کنند، حمایت کنند.

اجتناب از سانسور

در برخی موارد کنترل انتشار اخبار جعلی ممکن است سانسور و مصداقی از نقص حق آزادی بیان به شمار آید. گاهی حتی برای انسان نیز دشوار است درستی و اصالت اطلاعات را تعیین کند. بنابراین شاید بهتر است این سؤال را مطرح کنیم که بهتر است تعریف اخبار جعلی بر عهده چه کسی یا چه چیزی باشد؟ چگونه اطمینان حاصل کنیم که فیلترهای هوش مصنوعی ما را در تله مثبت کاذب گرفتار نخواهد کرد، به‌نحوی‌ که اطلاعات درست به دلیل وجود داده‌های مرتبط به اشتباه جعلی تشخیص داده شوند؟

موسیقی دیپ فیک؛ این فریادهای وهم‌انگیز از دنیای هوش مصنوعی به گوش می‌‌رسد!

سیستم هوش مصنوعی که برای شناسایی اخبار جعلی ایجاد می‌شود، می‌تواند کاربردهای ناشایستی داشته باشد. برای مثال، حکومت‌های استبدادی ممکن است هوش مصنوعی را دستاویزی برای حذف مقاله‌ها یا تحت تعقیب قرار دادن مخالفان خود قرار دهند و به این ترتیب، هر گونه به‌کارگیری هوش مصنوعی و قوانین مرتبط با آن و اقداماتی که ناشی از کاربردهای آن است، مستلزم سیستمی شفاف است که فردی بی‌طرف بر آن نظارت دارد.

از آنجا که مسئله تولید اطلاعات نادرست یک مسئله ادامه‌دار است، چالش‌های آن نیز در آینده پابرجا خواهند ماند، به‌ویژه زمانی که با مداخله خارجی همراه باشد. الگوریتمی که امروز ساخته شده است، ممکن است قادر به شناسایی اخبار جعلی در آینده نباشد.

فیلم جعلی از اوباما

گزارش بی‌بی‌سی درباره خطرات جعل عمیق

 

برای مثال، جعل عمیق که بسیار واقعی است و به‌سختی می‌توان دستکاری صوتی یا تصویری آن را تشخیص داد، احتمالاً در آینده نقش پررنگ‌تری در جنگ اطلاعاتی ایفا خواهد کرد. علاوه‌بر این، رهگیری و تفسیر اطلاعات نادرستی که از طریق پیام‌رسان‌هایی مانند واتساَپ و سیگنال دست به دست می‌شوند، به دلیل رمزگذاری سرتاسری دشوارتر شده است.

روشی برای تشخیص چهره دیپ فیک

نتایج تحقیقی که به‌تازگی انجام شده است، نشان می‌دهد که ۵۰% شهروندان کانادایی که در این پژوهش مشارکت داشته‌اند، به‌طور منظم از طریق پیام‎رسان خود اخبار جعلی دریافت کرده‌اند. قانون‌گذاری درباره این موضوع مستلزم ایجاد هماهنگی بین حریم خصوصی، امنیت فردی و مقابله با انتشار اطلاعات نادرست است.

اگرچه تشریک مساعی و تخصیص منابع در مبارزه دولت‌ها با انتشار اطلاعات نادرست با استفاده از هوش مصنوعی ارزش امتحان کردن را دارد، دقت و شفافیت نیز ضروری هستند. راهکارهای فنی جدید، متأسفانه، کلید طلایی حل این مشکل نیستند.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

این مطلب چه میزان برای شما مفید بوده است؟
[کل: ۲ میانگین: ۴]

تکینگی فناوری: پایان فناپذیری (بخش اول)

مقاله قبلی

مقایسه پکیج‌های EDA دیتافریم: Pandas Profiling ،Sweetviz و PandasGUI

مقاله بعدی

شما همچنین ممکن است دوست داشته باشید

نظرات

پاسخ دهید

نشانی ایمیل شما منتشر نخواهد شد.