Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 روشی برای تشخیص چهره دیپ فیک

روشی برای تشخیص چهره دیپ فیک

زمان مطالعه: 2 دقیقه

گروه کوچکی از پژوهشگران دانشگاه ایالتی نیویورک در آلبانی، دانشگاه ایالتی نیویورک در بوفالو و Kenya Medical متوجه وجود یک نقص در چهره دیپ فیک، چهره‌هایی که کامپیوتر آن‌ها را ایجاد کرده، شدند.

با توجه به این نقص، که به نظر می‌رسد میان اینگونه تصاویر مشترک است، می‌توان اینگونه چهره‌های دیپ فیک را از چهره‌های واقعی تشخیص داد. این تیم پژوهشی یافته‌های خود را در مقاله‌‌ای منتشر کرده و آن را در سرور پیش‌چاپ arXiv بارگذاری کرده‌اند.

چهره دیپ فیک
آناتومی چشم انسان. پایین: نمونه‌ مردمک‌هایی از‌ چشم‌های واقعی (چپ) و مردمک‌هایی که GAN ایجاد کرده است (راست). توجه داشته باشید که مردمک چشم‌های واقعی به شکل دایره‌ و یا بیضی است. در مقابل، مردمک‌ چشم‌هایی که GAN ایجاد می‌کند به صورت اشکال نامنظمی ظاهر می‌شود (قرمز). علاوه بر این، مردمک دو چشم در چهره‌هایی که GAN ایجاد می‌کند، تفاوت زیادی با یکدیگر دارند.

اهمیت تشخیص چهره دیپ فیک

طی چند سال گذشته، تصاویر و ویدئوهای دیپ‌فیک خبرساز شدند. تصاویر و ویدئوهایی که ویرایشگر‌های مبتدی و حرفه‌ای ایجاد کرده‌اند و افراد را در حال انجام کارهایی نشان می‌دهند که روح‌شان از آن‌ها خبر ندارد.

موضوعی که کمتر به آن پرداخته شده، اما به این حیطه مرتبط است، استفاده روزافزون از چهره‌هایی است که کامپیوترها ایجاد کرده‌اند و به انسان‌ شباهت دارند، انسان‌هایی که وجود خارجی ندارند. چنین تصاویری با استفاده از شبکه‌های مولد تخاصمی یا همان GANها ساخته می‌شوند و ظاهراً افرادی در شبکه‌های اجتماعی از این تصاویر به عنوان عکس پروفایل‌های جعلی خود استفاده می‌کنند. اینگونه تصاویر مسیر را برای جعل هویت و دیگر اقدامات شرورانه هموار می‌کند.

GANها نوعی فن‌آوری یادگیری عمیق هستند. به بیان ساده، برای اینکه شبکه عصبی ویژگی‌های سر و چهره‌ انسان‌ها را یاد بگیرد، تصاویری برای آموزش به آن تغذیه می‌شود. بدین ترتیب، شبکه های عصبی می‌توانند چهره‌های کاملاً جدیدی ایجاد کنند. خروجی این شبکه می‌تواند ترکیبی از چهره‌ی افرادی باشد که شبکه بر روی تصاویر آن‌ها آموزش دیده است.

در گام بعد، تصویر ایجادشده به یک شبکه عصبی دیگر ارسال می‌شود که تلاش می‌کند جعلی و حقیقی بودن آن را تشخیص دهد. تصاویری را که شبکه‌ی دوم به عنوان تصاویر جعلی تشخیص داده برای بازبینی به شبکه‌ی اول ارسال می‌شوند. این فرایند چندین بار تکرار می‌شوند و در هر تکرار تصویر به واقعیت نزدیک‌تر می‌شود. پس از چندی، تصاویر به اندازه‌ای طبیعی به نظر می‌رسند که شبکه دوم نمی‌تواند جعلی بودن آن‌ها را تشخیص دهد.

فرایند ایجاد تصاویر و ویدئوهای جعلی

طبیعتاً چنین فرایندی همان‌گونه که این پژوهشگران نیز ثابت کردند بی نقص نیست. این پژوهشگران با استفاده از نرم‌افزاری که نوشته‌اند، دریافتند که بسیاری از GANها مردمک‌هایی ایجاد می‌کنند که شباهت کمی با دایره دارند. به اعتقاد این پژوهشگران، از این نقص می‌توان به عنوان نشانه‌ای برای تشخیص چهره دیپ فیک استفاده کرد که کامپیوترها ایجاد کرده‌اند.

طبق گفته این پژوهشگران، در بسیاری موارد، کاربران به سادگی می‌توانند بر روی چشم‌های فردی که در مورد جعلی و واقعی بودن آن شک دارند، زوم کنند و بخش‌هایی از مردمک که حالت طبیعی ندارند را بررسی کنند. به اعتقاد این پژوهشگران، نوشتن یک نرم‌افزار برای تشخیص چنین خطاهایی دشوار نیست و شبکه‌های اجتماعی با استفاده از آن می‌توانند چنین محتواهایی را از پلتفرم‌های خود حذف کنند.

متأسفانه، این پژوهشگران اظهار داشتند حال که امکان شناسایی چنین ویژگی‌های غیرمعمولی فراهم شده‌، افرادی که تصاویر جعلی را ایجاد می‌کنند می‌توانند با افزودن یک ویژگی به تصاویر، مشکل گِرد بودن مردمک را برطرف کنند.

آیا شما تابه‌حال با تصویر یا ویدئو دیپ فیکی که نتوانید آنرا تشخیص دهید مواجه شده‌اید؟

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]