چهره دیپ فیک
آموزش‌های پیشرفته هوش مصنوعیبینایی ماشین

روشی برای تشخیص چهره دیپ فیک

    0
    زمان مطالعه: ۳ دقیقه

    گروه کوچکی از پژوهشگران دانشگاه ایالتی نیویورک در آلبانی، دانشگاه ایالتی نیویورک در بوفالو و Kenya Medical متوجه وجود یک نقص در چهره دیپ فیک، چهره‌هایی که کامپیوتر آن‌ها را ایجاد کرده، شدند.

    با توجه به این نقص، که به نظر می‌رسد میان اینگونه تصاویر مشترک است، می‌توان اینگونه چهره‌های دیپ فیک را از چهره‌های واقعی تشخیص داد. این تیم پژوهشی یافته‌های خود را در مقاله‌‌ای منتشر کرده و آن را در سرور پیش‌چاپ arXiv بارگذاری کرده‌اند.

    چهره دیپ فیک

    آناتومی چشم انسان. پایین: نمونه‌ مردمک‌هایی از‌ چشم‌های واقعی (چپ) و مردمک‌هایی که GAN ایجاد کرده است (راست). توجه داشته باشید که مردمک چشم‌های واقعی به شکل دایره‌ و یا بیضی است. در مقابل، مردمک‌ چشم‌هایی که GAN ایجاد می‌کند به صورت اشکال نامنظمی ظاهر می‌شود (قرمز). علاوه بر این، مردمک دو چشم در چهره‌هایی که GAN ایجاد می‌کند، تفاوت زیادی با یکدیگر دارند.

    اهمیت تشخیص چهره دیپ فیک

    طی چند سال گذشته، تصاویر و ویدئوهای دیپ‌فیک خبرساز شدند. تصاویر و ویدئوهایی که ویرایشگر‌های مبتدی و حرفه‌ای ایجاد کرده‌اند و افراد را در حال انجام کارهایی نشان می‌دهند که روح‌شان از آن‌ها خبر ندارد.

    موضوعی که کمتر به آن پرداخته شده، اما به این حیطه مرتبط است، استفاده روزافزون از چهره‌هایی است که کامپیوترها ایجاد کرده‌اند و به انسان‌ شباهت دارند، انسان‌هایی که وجود خارجی ندارند. چنین تصاویری با استفاده از شبکه‌های مولد تخاصمی یا همان GANها ساخته می‌شوند و ظاهراً افرادی در شبکه‌های اجتماعی از این تصاویر به عنوان عکس پروفایل‌های جعلی خود استفاده می‌کنند. اینگونه تصاویر مسیر را برای جعل هویت و دیگر اقدامات شرورانه هموار می‌کند.

    GANها نوعی فن‌آوری یادگیری عمیق هستند. به بیان ساده، برای اینکه شبکه عصبی ویژگی‌های سر و چهره‌ انسان‌ها را یاد بگیرد، تصاویری برای آموزش به آن تغذیه می‌شود. بدین ترتیب، شبکه های عصبی می‌توانند چهره‌های کاملاً جدیدی ایجاد کنند. خروجی این شبکه می‌تواند ترکیبی از چهره‌ی افرادی باشد که شبکه بر روی تصاویر آن‌ها آموزش دیده است.

    در گام بعد، تصویر ایجادشده به یک شبکه عصبی دیگر ارسال می‌شود که تلاش می‌کند جعلی و حقیقی بودن آن را تشخیص دهد. تصاویری را که شبکه‌ی دوم به عنوان تصاویر جعلی تشخیص داده برای بازبینی به شبکه‌ی اول ارسال می‌شوند. این فرایند چندین بار تکرار می‌شوند و در هر تکرار تصویر به واقعیت نزدیک‌تر می‌شود. پس از چندی، تصاویر به اندازه‌ای طبیعی به نظر می‌رسند که شبکه دوم نمی‌تواند جعلی بودن آن‌ها را تشخیص دهد.

    فرایند ایجاد تصاویر و ویدئوهای جعلی

    طبیعتاً چنین فرایندی همان‌گونه که این پژوهشگران نیز ثابت کردند بی نقص نیست. این پژوهشگران با استفاده از نرم‌افزاری که نوشته‌اند، دریافتند که بسیاری از GANها مردمک‌هایی ایجاد می‌کنند که شباهت کمی با دایره دارند. به اعتقاد این پژوهشگران، از این نقص می‌توان به عنوان نشانه‌ای برای تشخیص چهره دیپ فیک استفاده کرد که کامپیوترها ایجاد کرده‌اند.

    طبق گفته این پژوهشگران، در بسیاری موارد، کاربران به سادگی می‌توانند بر روی چشم‌های فردی که در مورد جعلی و واقعی بودن آن شک دارند، زوم کنند و بخش‌هایی از مردمک که حالت طبیعی ندارند را بررسی کنند. به اعتقاد این پژوهشگران، نوشتن یک نرم‌افزار برای تشخیص چنین خطاهایی دشوار نیست و شبکه‌های اجتماعی با استفاده از آن می‌توانند چنین محتواهایی را از پلتفرم‌های خود حذف کنند.

    متأسفانه، این پژوهشگران اظهار داشتند حال که امکان شناسایی چنین ویژگی‌های غیرمعمولی فراهم شده‌، افرادی که تصاویر جعلی را ایجاد می‌کنند می‌توانند با افزودن یک ویژگی به تصاویر، مشکل گِرد بودن مردمک را برطرف کنند.

    آیا شما تابه‌حال با تصویر یا ویدئو دیپ فیکی که نتوانید آنرا تشخیص دهید مواجه شده‌اید؟

    این مطلب چه میزان برای شما مفید بوده است؟
    [کل: ۱ میانگین: ۴]

    پیشرفت هوش مصنوعی در حوزه سلامت: سنجش سلامت روحی بیماران سرطانی

    مقاله قبلی

    به‌زودی طرح کاربست هوش مصنوعی در حوزه تولید علوم انسانی اجرایی می‌شود

    مقاله بعدی

    شما همچنین ممکن است دوست داشته باشید

    نظرات

    پاسخ دهید

    نشانی ایمیل شما منتشر نخواهد شد.