متأسفانه هوش مصنوعی نمیتواند انتشار اخبار جعلی را متوقف کند
دروغپراکنی سالیان سال در جنگها و استراتژیهای نظامی کاربرد داشته است؛ اما بدون شک بهکارگیری فناوریهای هوشمند و رسانههای اجتماعی آن را تشدید کرده است؛ زیرا این فناوریهای ارتباطی راههای کمهزینه و بهینهای برای انتشار اطلاعات در سرتاسر دنیا ایجاد کردهاند.
اما پرسش چند میلیون دلاری این است که آیا امکان حل این مسئله با استفاده از فناوری وجود دارد؟
در واقع، توسعه مستمر راهحلهای فناوری جدید، مانند هوش مصنوعی، ممکن است بخشی از راهحل باشد.
شرکتهای فناوری و شرکتهای رسانههای اجتماعی در حال کار بر روی شناسایی خودکار اخبار جعلی از طریق پردازش زبان طبیعی، یادگیری ماشین و تجزیه و تحلیل شبکه هستند. الگوریتم اطلاعات را بهعنوان «اخبار جعلی» شناسایی میکند و آنها را پایینتر رتبهبندی میکند، تا احتمال مواجهه کاربران با این اطلاعات را کاهش دهد.
تکرار و افشا
از دیدگاه روانشناختی، اگر فردی بهطور مکرر در معرض اطلاعات یکسانی قرار گیرد، احتمال اینکه آن اطلاعات را باور کند، بالا میرود. زمانی که هوش مصنوعی اطلاعات نادرست را تشخیص دهد و فرکانس گردش آنها را کم کند، میتواند چرخه الگوی مصرف اطلاعات تقویتشده را بشکند.
با این حال، عده بسیاری قابلیت تشخیص هوش مصنوعی را غیرقابل اطمینان قلمداد میکنند. مدلهای تشخیص فعلی برای تعیین اعتبار متن مبتنی بر سنجش متن (محتوا) و شبکههای اجتماعی مورد استفاده هستند. بهرغم تشخیص اصالت منابع و الگوی انتشار اخبار جعلی، مسئله اصلی کماکان نحوه تأیید ماهیت واقعی محتوا با هوش مصنوعی است.
[irp posts=”5166″]به لحاظ نظری، اگر حجم دیتای آموزشی کافی باشد، مدل دستهبندی مبتنی بر هوش مصنوعی میتواند تشخیص دهد، مقاله مورد بررسی حاوی اخبار جعلی است یا خیر؛ اما در واقعیت تشخیص اصالت یک متن مستلزم برخورداری از دانش سیاسی، فرهنگی و اجتماعی یا بهعبارتی شعور جمعی است و الگوریتمهای پردازش زبان طبیعی هنوز به آن مجهز نشدهاند.
علاوه بر این، نسخه پیشانتشار پژوهشی نشان میدهد زمانی که اخبار جعلی برای حقیقی جلوه دادن، به عَمد دستخوش تغییر و ویرایش میشود، ممکن است بسیار متفاوت جلوه کند.
تشریک مساعی انسان و هوش مصنوعی
از طرفی، درونمایه نیز تأثیر بسزایی بر تحلیل دستهبندی میگذارد. هوش مصنوعی برای تعیین اصالت متن به جای اینکه صرفاً محتوای خبر را بررسی کند، اغلب موضوع آن را مشخص میکند. برای مثال، احتمال اینکه مقالههای مرتبط با موضوع کرونا برچسب جعلی دریافت کنند، بیشتر است.
[irp posts=”6576″]یکی از راههای حل این مسئله، استخدام نیروی انسانی است، تا در کنار هوش مصنوعی اصالت متن را تشخیص دهند. برای مثال، در سال 2018، وزارت دفاع لیتوانی برنامهای مبتنی بر هوش مصنوعی ساخت که «ظرف دو دقیقه پس از انتشار، اخبار اطلاعات نادرست را علامتگذاری کرده و برای تحلیل بیشتر به یک کاربر انسانی میفرستاد.»
سایر کشورها نیز میتوانند رویکرد مشابهی اتخاذ کرده و برای مقابله با انتشار اخبار جعلی یک واحد یا دپارتمان ملی ویژه تشکیل دهند یا از اتاق فکر، دانشگاه یا هر نهاد دیگری که بر روی راهکارهای مبتنی بر هوش مصنوعی تحقیق میکنند، حمایت کنند.
اجتناب از سانسور
در برخی موارد کنترل انتشار اخبار جعلی ممکن است سانسور و مصداقی از نقص حق آزادی بیان به شمار آید. گاهی حتی برای انسان نیز دشوار است درستی و اصالت اطلاعات را تعیین کند. بنابراین شاید بهتر است این سؤال را مطرح کنیم که بهتر است تعریف اخبار جعلی بر عهده چه کسی یا چه چیزی باشد؟ چگونه اطمینان حاصل کنیم که فیلترهای هوش مصنوعی ما را در تله مثبت کاذب گرفتار نخواهد کرد، بهنحوی که اطلاعات درست به دلیل وجود دادههای مرتبط به اشتباه جعلی تشخیص داده شوند؟
[irp posts=”7852″]سیستم هوش مصنوعی که برای شناسایی اخبار جعلی ایجاد میشود، میتواند کاربردهای ناشایستی داشته باشد. برای مثال، حکومتهای استبدادی ممکن است هوش مصنوعی را دستاویزی برای حذف مقالهها یا تحت تعقیب قرار دادن مخالفان خود قرار دهند و به این ترتیب، هر گونه بهکارگیری هوش مصنوعی و قوانین مرتبط با آن و اقداماتی که ناشی از کاربردهای آن است، مستلزم سیستمی شفاف است که فردی بیطرف بر آن نظارت دارد.
از آنجا که مسئله تولید اطلاعات نادرست یک مسئله ادامهدار است، چالشهای آن نیز در آینده پابرجا خواهند ماند، بهویژه زمانی که با مداخله خارجی همراه باشد. الگوریتمی که امروز ساخته شده است، ممکن است قادر به شناسایی اخبار جعلی در آینده نباشد.
فیلم جعلی از اوباما
گزارش بیبیسی درباره خطرات جعل عمیق
برای مثال، جعل عمیق که بسیار واقعی است و بهسختی میتوان دستکاری صوتی یا تصویری آن را تشخیص داد، احتمالاً در آینده نقش پررنگتری در جنگ اطلاعاتی ایفا خواهد کرد. علاوهبر این، رهگیری و تفسیر اطلاعات نادرستی که از طریق پیامرسانهایی مانند واتساَپ و سیگنال دست به دست میشوند، به دلیل رمزگذاری سرتاسری دشوارتر شده است.
[irp posts=”19903″]نتایج تحقیقی که بهتازگی انجام شده است، نشان میدهد که 50% شهروندان کانادایی که در این پژوهش مشارکت داشتهاند، بهطور منظم از طریق پیامرسان خود اخبار جعلی دریافت کردهاند. قانونگذاری درباره این موضوع مستلزم ایجاد هماهنگی بین حریم خصوصی، امنیت فردی و مقابله با انتشار اطلاعات نادرست است.
اگرچه تشریک مساعی و تخصیص منابع در مبارزه دولتها با انتشار اطلاعات نادرست با استفاده از هوش مصنوعی ارزش امتحان کردن را دارد، دقت و شفافیت نیز ضروری هستند. راهکارهای فنی جدید، متأسفانه، کلید طلایی حل این مشکل نیستند.
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید