روشی برای تشخیص چهره دیپ فیک
گروه کوچکی از پژوهشگران دانشگاه ایالتی نیویورک در آلبانی، دانشگاه ایالتی نیویورک در بوفالو و Kenya Medical متوجه وجود یک نقص در چهره دیپ فیک، چهرههایی که کامپیوتر آنها را ایجاد کرده، شدند.
با توجه به این نقص، که به نظر میرسد میان اینگونه تصاویر مشترک است، میتوان اینگونه چهرههای دیپ فیک را از چهرههای واقعی تشخیص داد. این تیم پژوهشی یافتههای خود را در مقالهای منتشر کرده و آن را در سرور پیشچاپ arXiv بارگذاری کردهاند.
اهمیت تشخیص چهره دیپ فیک
طی چند سال گذشته، تصاویر و ویدئوهای دیپفیک خبرساز شدند. تصاویر و ویدئوهایی که ویرایشگرهای مبتدی و حرفهای ایجاد کردهاند و افراد را در حال انجام کارهایی نشان میدهند که روحشان از آنها خبر ندارد.
موضوعی که کمتر به آن پرداخته شده، اما به این حیطه مرتبط است، استفاده روزافزون از چهرههایی است که کامپیوترها ایجاد کردهاند و به انسان شباهت دارند، انسانهایی که وجود خارجی ندارند. چنین تصاویری با استفاده از شبکههای مولد تخاصمی یا همان GANها ساخته میشوند و ظاهراً افرادی در شبکههای اجتماعی از این تصاویر به عنوان عکس پروفایلهای جعلی خود استفاده میکنند. اینگونه تصاویر مسیر را برای جعل هویت و دیگر اقدامات شرورانه هموار میکند.
GANها نوعی فنآوری یادگیری عمیق هستند. به بیان ساده، برای اینکه شبکه عصبی ویژگیهای سر و چهره انسانها را یاد بگیرد، تصاویری برای آموزش به آن تغذیه میشود. بدین ترتیب، شبکه های عصبی میتوانند چهرههای کاملاً جدیدی ایجاد کنند. خروجی این شبکه میتواند ترکیبی از چهرهی افرادی باشد که شبکه بر روی تصاویر آنها آموزش دیده است.
در گام بعد، تصویر ایجادشده به یک شبکه عصبی دیگر ارسال میشود که تلاش میکند جعلی و حقیقی بودن آن را تشخیص دهد. تصاویری را که شبکهی دوم به عنوان تصاویر جعلی تشخیص داده برای بازبینی به شبکهی اول ارسال میشوند. این فرایند چندین بار تکرار میشوند و در هر تکرار تصویر به واقعیت نزدیکتر میشود. پس از چندی، تصاویر به اندازهای طبیعی به نظر میرسند که شبکه دوم نمیتواند جعلی بودن آنها را تشخیص دهد.
فرایند ایجاد تصاویر و ویدئوهای جعلی
طبیعتاً چنین فرایندی همانگونه که این پژوهشگران نیز ثابت کردند بی نقص نیست. این پژوهشگران با استفاده از نرمافزاری که نوشتهاند، دریافتند که بسیاری از GANها مردمکهایی ایجاد میکنند که شباهت کمی با دایره دارند. به اعتقاد این پژوهشگران، از این نقص میتوان به عنوان نشانهای برای تشخیص چهره دیپ فیک استفاده کرد که کامپیوترها ایجاد کردهاند.
طبق گفته این پژوهشگران، در بسیاری موارد، کاربران به سادگی میتوانند بر روی چشمهای فردی که در مورد جعلی و واقعی بودن آن شک دارند، زوم کنند و بخشهایی از مردمک که حالت طبیعی ندارند را بررسی کنند. به اعتقاد این پژوهشگران، نوشتن یک نرمافزار برای تشخیص چنین خطاهایی دشوار نیست و شبکههای اجتماعی با استفاده از آن میتوانند چنین محتواهایی را از پلتفرمهای خود حذف کنند.
متأسفانه، این پژوهشگران اظهار داشتند حال که امکان شناسایی چنین ویژگیهای غیرمعمولی فراهم شده، افرادی که تصاویر جعلی را ایجاد میکنند میتوانند با افزودن یک ویژگی به تصاویر، مشکل گِرد بودن مردمک را برطرف کنند.
آیا شما تابهحال با تصویر یا ویدئو دیپ فیکی که نتوانید آنرا تشخیص دهید مواجه شدهاید؟