Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 جعل عمیق و کشمکش بین این فناوری و تشخیص‌دهنده‌های آن

جعل عمیق و کشمکش بین این فناوری و تشخیص‌دهنده‌های آن

زمان مطالعه: 4 دقیقه

جعل عمیق به زودی همانند فتوشاپ به صورت گسترده مورد استفاده همگان قرار می‌گیرد و از آنجایی که هنوز روش مناسبی برای تشخیص این فناوری وجود ندارد، نگرانی‌ها از در دسترس قرار گرفتن این تکنولوژی افزایش یافته است.

فیلم پر پیچ وتابی را تصور کنید که در آن سرکرده جنایت کاران با بزرگ‌ترین کاراگاه جهان وارد جنگ روانی شده است. این جنایتکار برآن شده است تا حقه‌ی سوار کند، یعنی با استفاده از تردستی و توانایی‌های غیرعادی خودش را به شکل هر کسی که می‌خواهد درآورد. آنقدر در کارش خوب بود که می‌توانست مردم را اغوا کند چیزهایی را که هرگز اتفاق نیافتاده بود باور کنند.

امّا کارگاه وارد ماجرا می‌شود. فردی باهوش، مصصم، که دست هر دزد و جنایتکاری را می‌خواند. هیچ چیز از چشمش پنهان نمی‌ماند و کوچک‌ترین رفتارها، از بالا رفتن ابرو گرفته تا لحن صدا، برای او حکم سرنخ را دارد. این کاراگاه تنها کسی است که توانسته است یک بار جنایتکار داستان ما را دستگیر کند و اکنون دوباره در تعقیب وی است.

البته یک مشکل وجود دارد: دزد داستان ما می‌داند که کاراگاه به دنبال چه نشانه‌هایی می‌گردد به همین دلیل روش خود را عوض کرده است و قهرمان داستان متوجه آن نیست.

مسئله جعل عمیق

این سناریو در اصل داستان جعل عمیق یا دیپ فیک و تشخیص‌دهنده‌های آن است. برنامه‌های جعل عمیق شکلی از رسانه‌ی ساختگی هستند که با آن می‌توان شباهت افراد را به صورت دیجیتالی تغییر داد (درست مانند اقتباسی از فیلم «تغییر چهره» که این‌بار به کارگردانی پژوهشگران هوش مصنوعی ساخته شده است). این برنامه‌ها از زمان حضور خود در صحنه در سال 2017 همواره باعث نگرانی بوده‌اند. اگرچه بسیاری از برنامه‌های جعل عمیق سرگرم کننده هستند (تغییر چهره آرنی با سیلوستر استالونه در فیلم نابودگر) لیکن آن‌ها تهدیدی ضمنی نیز محسوب می‌شوند. جعل عمیق در ساخت فیلم‌های مستهجن جعلی به کار می‌رود، فیلم‌هایی که واقعی به نظر می‌رسند، و همینطور از آنها در حقه‌های سیاسی و کلاهبرداری‌های مالی استفاده می‌شود.

از بیم اینکه نکند این حقه‌ها به مسئله بزرگ‌تری بدل شوند، باید یک نفر وارد عمل شود و راست و دروغ مسائل را دربیاورد.

«تشخیص‌دهنده‌های جعل عمیق با زیر و رو کردن تصویر و با پیدا کردن دره‌های وهمی و شناسایی کوچکترین اختلاف‌ها به دنبال جزئیاتی هستند که با عکس جور در نمی‌آید.»

پیدایش اولین تشخیص‌دهنده‌های جعل عمیق زیاد طول نکشید. یکی از اولین اقدامات برای شناسایی جعل عمیق در آوریل سال 2018 صورت گرفت. این تشخیص‌دهنده‌ توسط پژوهشگران دانشگاه فنی مونیخ طراحی شده بود و درست مانند فناوری جعل عمیق مبتنی بر هوش مصنوعی بود با این تفاوت که هوش مصنوعی این‌بار برای تشخیص جعل عمیق، و نه ساخت آن، به کار گرفته شد.

جعل عمیق

تشخیص‌دهنده‌های جعل عمیق با زیر و رو کردن تصویر و با پیدا کردن دره‌های وهمی و شناسایی کوچکترین اختلاف‌ها به دنبال جزئیاتی هستند که با عکس جور در نمی‌آید. تشخیص‌دهنده‌ اطلاعات چهره را از عکس برش می‌زند و آن را وارد یک شبکه عصبی می‌کند تا شبکه عصبی اصل بودن آن را بسنجد. برای مثال این شبکه ممکن است تشخیص دهد پلک زدن به درستی  باز آفرینی نشده است.

امّا اکنون محققان دانشگاه کالیفرنیا، سن دیگو به شگرد جدیدی دست‌یافته‌اند و می‌توانند با اضافه نمودن چیزی موسوم به «نمونه‌های متخاصم» به فریم ویدیو بر تشخیص‌دهنده‌های جعل عمیق غلبه کنند. نمونه‌های متخاصم اشتباه‌های جالب، و در عین حال ترسناک، در ماتریس‌ هوش مصنوعی هستند. نمونه‌های متخاصم می‌توانند حتی هوشمندترین سیستم‌های تشخیص‌دهنده را گول بزنند و باعث شوند برای مثال سامانه لاکپشت را اسلحه یا دستگاه اسپرسو را توپ بیسبال تشخیص دهد. آنها ماهرانه نویز به تصویر اضافه می‌کنند به طوری که باعث می‌شود شبکه های عصبی اشتباه طبقه‌بندی کند.

مثلاً تشخیص‌دهنده یک تفنگ را با یک خزنده، یا یک فیلم جعلی را با یک فیلم واقعی اشتباه می‌گیرد.

نمونه‌ای از جعل عمیق را می‌توانید در ویدئوی زیر تماشا کنید:

گول زدن تشخیص‌دهنده‌ها

«اخیراً بازار تولید جعل عمیقِ واقع گرایانه داغ شده است» (پارت نیخارا، دانشجوی مهندسی کامپیوتر تحصیلات تکمیلی دانشگاه سن دیگو). این دانشجو در مصاحبه با Digital Trends  گفت «از آنجا که می‌توان از این ویدیوها سوء استفاده کرد، تلاش‌های فراوانی در جهت توسعه تشخیصدهنده‌هایی صورت گرفته است که بتوانند قطع به یقین ویدیوهای جعل عمیق را شناسایی کنند. برای مثال فیس‌بوک اخیراً «چالش شناسایی جعل عمیق» را راه‌اندازی نمود تا به انجام پژوهش‌های صورت گرفته پیرامون توسعه تشخیص دهنده‌های جعل عمیق سرعت بخشد.

اگرچه تشخیص‌دهنده‌ها می‌توانند با دقت 90 درصد در یک دیتاست ویدیوهای جعلی را از ویدیوهای واقعی تشخیص دهند، نتایج تحقیقات ما در دانشگاه سن دیگو حاکی از این است که به راحتی می‌توان تشخیص‌دهنده‌های جعل عمیق را با یک مهاجم دور زد. مهاجم می‌تواند نویزی را که ماهرانه طراحی شده است و برای انسان محسوس و قابل مشاهده نیست در فریم‌های یک ویدیو بگنجاند و در نتیجه آن، تشخیص دهنده محتوای ویدیو را اشتباه طبقه‌بندی می‌کند.»

جعل عمیق

چالش جعل عمیق فیس‌بوک

مهاجم‌ها حتی اگر در مورد معماری و پارامترهای تشخیص دهنده اطلاعات خاصی نداشته باشد می‌توانند این ویدیوها را تولید کنید و حتی پس از فشرده‌سازی ویدیو (مرحله‌ای که برای به اشتراک گذاشتن آنها در سامانه‌های برخط مانند یوتیوب اجرا می‌شود) می‌توانند نویز را به آن اضافه کنند.

پس از انجام تست مشخص گردید که اگر این روش به مدل تشخیص‌دهنده دسترسی داشته باشد در گول زدن این سیستم‌ها تا 99% موفق خواهد بود. با این حال، حتی در پایین ترین سطح موفقیت خود (یعنی در ویدیوهای فشرده شده و زمانی که هیچ گونه اطلاعاتی در مورد تشخیص‌دهنده‌ها در اختیار ندارد) در 33/78 درصد موارد موفق به شکست تشخیص دهنده‌ها شد. که اصلاً خبر خوبی نیست.

طبق گفته‌های نیخارا، محققان با انتشار کدهای خود موافق نبودند زیرا این کدها می‌توانست مورد سوءاستفاده قرار گیرد. «فیلم‌های متخاصمی که با استفاده از کدهای ما تولید می‌‍شوند به احتمال زیاد می‌توانند دیگر تشخیص‌دهنده‌های جعل‌ عمیق ناشناخته، یعنی تشخیص‌دهنده‌هایی که برای تولید محتوای رسانه‌های اجتماعی استفاده می‌شوند، را نیز گول بزنند». وی در ادامه سخنان خود گفت «در حال حاضر با تیم‌های مختلفی همکاری می‌کنیم که بر روی ساخت تشخیص‌دهنده‌های جعل‌ عمیق کار می‌کنند و با کمک نتایج پژوهش‌های ما به دنبال ساخت سیستم‌های شناسایی دقیق‌تری هستند.»

بازی موش و گربه جعل عمیق

البته، این پایان ماجرا نیست. برگردیم به مقایسه جعل عمیق با سناریوی فیلم. تا اینجای کار تنها بیست دقیقه از فیلم را دیده‌ایم. هنوز به صحنه‌ای که کاراگاه متوجه می‌شود بازی خورده است نرسیده‌ایم، یا به لحظه‌ای که جنایت‌کار متوجه می‌شود که کارگاه می‌داند جنایت‌کار از شیوه‌ی شناسایی او آگاه است. امیدوارم متوجه شده باشید.

همه افرادی که در حوزه امنیت سایبری فعالیت داشته‌اند کاملاً با بازی موش و گربه جعل‌ عمیق و تشخیص‌دهنده‌های آن آشنا هستند، بازی‌ای که احتمالاً تا ابد ادامه خواهد داشت. هکرهای بداندیش نقاط ضعف را پیدا می‌کنند، سپس برنامه نویس‌ها این نقاط ضعف را کور می‌کنند، و بعد هکرها نقاط ضعف نسخه‌های بعدی را کشف می‌کنند و باز برنامه نویس‌ها آنها را دست‌کاری می‌کنند و این بازی تا بینهایت ادامه پیدا می‌کند.

به گفته شِزین حسین، دانشجوی دکترای مهندسی کامپیوتر دانشگاه سن دیگو«سیستم‌های تولید و تشخیص جعل عمیق درست مانند مناسبات ویروس‌ها و آنتی‌ویروس‌ها هستند.» وی در ادامه صحبت‌های خود به Digital Trends گفت «در حال حاضر تشخیص‌دهنده‌های جعل عمیق با دیتاست‌هایی آموزش می‌بینند که متشکل از ویدیوهای واقعی و جعلی است و این ویدیوها با تکنیک‌های جعل عمیق کنونی ساخته شده‌اند. هیچ تضمینی وجود ندارد که این تشخیص‌دهنده‌ها در برابر سیستم‌های تولید جعل عمیق آتی مصون بمانند. برای پیروزی در جنگ تسلیحاتی، لازم است همواره تشخیص‌دهنده‌های جعل‌ عمیق را به‌روزرسانی کرده و با تکنیک‌های جدید ساخت جعل‌ عمیق آموزش دهیم. همچنین لازم است با گنجاندن ویدیوهای متخاصم طی روند آموزش تشخیص‌دهنده‌ها را در برابر «نمونه‌های متخاصم» مقاوم نماییم.»

مقاله‌ای با عنوان «جعل عمیق متخاصم: ارزیابی آسیب پذیری تشخیص‌دهنده‌های جعل عمیق در برابر  نمونه‌های متخاصم» که اخیراً در کنفرانس «کارگاه‌های آموزش کاربردهای بینایی کامپیوتر» (WACV Workshops on Application of Computer Vision) ارائه شده است به توضیح این رویکرد می‌پردازد.

 

انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]