تشخیص دیپ فیک
آموزش‌های پیشرفته هوش مصنوعیبینایی ماشین

تشخیص دیپ فیک و تصاویر جعلی، توسط هوش مصنوعی (بخش اول)

0
زمان مطالعه: ۱۷ دقیقه

چه کسی می خواهد میلیونر شود؟ ۲۹۱۳ نفر رویای میلیونر شدن را در سر می‌پرورانند و بر سر جایزه یک میلیونی مسابقه تشخیص دیپ فیک با یکدیگر به رقابت می‌پردازند. هدف از برگزاری مسابقه در ماه مارس ۲۰۲۰، ساخت و توسعه فن‌آوری‌هایی است که بتوانند دیپ فیک و رسانه‌های دستکاری ‌شده را تشخیص دهند.

ساخت تصاویر با هوش مصنوعیدر ماه دسامبر سال ۲۰۱۹، شرکت فیسبوک ۶۸۲ حساب کاربری را حذف کرد. شرکت فیسبوک مدعی شد صاحبان این حساب‌های کاربری با اشاعه اعمال فریبکارانه قصد داشتند ۵۵ میلیون کاربر را به طرفداری و حمایت از ترامپ ترغیب کنند. طبق اظهارات فیسبوک، برخی از این حساب‌های کاربری از عکس‌های ایجادشده توسط هوش مصنوعی برای پروفایل خود استفاده کردند و خود را آمریکایی جا زده‌اند. گزارش‌ها حاکی از آن است که این تصاویر در یک وب‌سایت عمومی ساخته شده که در آن برای ایجاد تصاویر پروفایل از StyleGAN استفاده می‌شود. تصاویری که در مقابل مشاهده می‌کنید توسط نسخه ارتقاء یافته موسوم به StyleGAN 2 ایجاد شده است. StyleGAN 2 در دسترس همگان قرار دارد.

تشخیص دیپ فیک

تصاویر واقعی یا StyleGAN

آیا می‌توانید تشخیص دهید کدام یک از تصاویر مقابل جعلی است و کدام یک توسط StyleGAN ایجاد شده است؟

تصویر ساخته شده با StyleGAN یا واقعی

( تصویر جعلی توسط StyleGAN ایجاد شده است)

تشخیص‌ این‌که کدام تصویر جعلی است بسیار ساده است. تصویر سمت چپ جعلی و ساختگی است چرا که در بسیاری از تصاویری که StyleGAN ایجاد می‌کند، آرتیفکت Artifacts به چشم می‌خورد. حالا تصاویر مقابل را مشاهده کنید.تصاویری که StyleGANایجاد کرده

تمامی تصاویر ستون سمت چپ جعلی و ساختگی هستند. نرخ دقت من در تشخیص تصاویر StyleGAN، ۹۵% است. اما StyleGAN پیشرفته‎ تر و در نتیجه تشخیص این‌که کدام تصویر جعلی است دشوارتر. تمامی تصاویر پیش رو جعلی هستند.

تصاویر جعلی

شبکه‌های مولد تخاصمی GAN و deep fake صرفاً به موضوعی برای تحقیق و پژوهش‌ و یا وسیله‌ای سرگرمی برای مهندسان محدود نیستند. GAN و deepfake که در ابتدا مفهومی نوآورانه بودند، اکنون به ابزاری برای ارتباطات تبدیل شده‌اند. با کلیک کردن بر روی این لینک می‌توانید  ویدئویی را مشاهده کنید که به طور گسترده به اشتراک گذاشته شده، در حالی‌که این ویدئو با استفاده از Adobe After Effects و FakeAPP (یکی از نرم‌افزارهای کاربردی deep fake) ساخته شده است.

نواقص طراحی و پیاده‌سازی

طراحی و پیاده‌سازی همواره با نواقص و کاستی‌هایی همراه است. برای مثال، شیوه نرمال‌سازی نمونه Instance normalization method که در StyleGAN از آن استفاده می‌شود اغلب باعث ایجاد حباب‌های آرتیفکت و پخش‌شدن رنگ Color bleeding در تصاویر ایجاد شده می‌شود.

نواقعی عکس طراحی شده با هوش مصنوعی

با این حال همانند سایر فن‌آوری‌های GAN و deep fake، راهکارهایی برای حل این مشکل ارائه شده است. برای مثال، در تصاویر StyleGAN حباب‌هایی آرتیفکت ایجاد می‌شد، اما در StyleGAN 2 با بهره‌گیری از شیوه تفکیک وزن Weight demodulation – و به عنوان روش جایگزین نرمال‌سازی –  این مشکل حل شده است.

اگر با دقت به تصاویر StyleGAN 2 نگاه کنید باز هم نواقص و کاستی‌هایی می‌بینید. برای مثال، در تصویر مقابل، ساختار پس‌زمینه مناسب و صحیح نیست. به بیانی دقیق‌تر، ساختارهای ارائه‌شده حالات صحیح خطوط و اشکال را حفظ نمی‌کنند.

تصاویر StyleGAN 2

ایجاد و حفظ تقارن نیز امری دشوار است. برای مثال، ممکن است به یک گوش، گوشواره باشد و گوش دیگر گوشواره نداشته باشد. در تصویر مقابل، حالت شانه سمت راست هم‌سو با شانه سمت چپ نیست.

مشکلات تصاویر جعلی

مروری بر دیپ فیک

همان‌گونه که در تصویر مقابل مشاهده می‌کنید، در مرحله اول دیپ فیک یک رمزگذار Encoder معمولی می‌سازد تا ویژگی‌های تصاویر دو فرد متفاوت را کدگذاری کند. در مرحله دوم و سوم، دیپ فیک دو رمزگشا مجزا می‌سازد تا تصویر اول و دوم را بازسازی کند. برای آن‌که تصویر به درستی بازآفرینی شود، رمزگذار باید تمامی متغیرهای موجود در تصاویر یک فرد را ثبت کند؛ در اینجا منظور از متغیر ویژگی‌هایی است که دربردارنده اطلاعاتی همچون ژست، حالات، نور و غیره است.

مروری بر دیپ فیک

حالا در یک ویدئو چهره مِری را با چهره اِمی جایگزین کنیم. ابتدأ ویژگی‌های چهره مِری در این ویدئو را ثبت می‌کنیم و سپس آن‌ها را با استفاده از رمزگذار سمت امی منتقل می‌کنیم. در نتیجه، چهره اِمی ژست، نور و روشنایی و حالات احساسی ویدئوی اصلی را خواهد داشت.

دیپ فیک

البته اگر این کار به درستی انجام نشود، شکل فرایند «بریدن و درج کردن» به خود می‌گیرد و در جایی که چهره درج شده بر روی خطوط و مرزها آرتیفکت‌ها به وضوح آشکار خواهند بود.

تشخیص دیپ فیک عکس

برای حل این مشکل انکودر می‌تواند ماسکی را یاد بگیرد تا بهتر بتواند چهره جدید را با چهره اصلی ترکیب کند.

دیپ فیک2

با این وجود، ادغام چهره جدید با چهره اصلی دشواری‌هایی به همراه دارد. جلوه‌های سایه‌اندازی Ghosting effects، تغییر شدت رنگ و مرزهای واضح جعلی‌بودن محصولات کم بودجه از جمله برخی ویدئوهای موجود در دیتاست DFDC را نشان می‌دهد.

عکس ساخته شده

نقاط راهنمای صورت

برای ارتقا کیفیت از تکنیک دیگری نیز می‌توان استفاده کرد. جایگزین کردن صورت با استفاده از نقاط راهنما Face Landmarks
صورت پیش از روی کار آمدن فناوری هوش مصنوعی نیز انجام می‌شده است. بخشی از صورت بریده می‌شود و نقاط راهنمای آن با نقاط راهنمای چهره مقصد مطابقت داده می‌شوند.

نقاط راهنمای صورت

به منظور کاهش وضوح مرزها محو گاوسی Gaussian blur اعمال می‌شود. اما احتمالاً رنگ پوست و میزان روشنایی دو تصویر با هم هم‌خوانی نداشته باشند. همان‌گونه که پیش از این نیز گفتیم، با استفاده از دیپ فیک می‌توان این مشکل را حل کرد.

عکس همراه نقاط راهنمای صورت

برخی از پیاده‌سازی‌های دیپ فیک، مشخصه‌های صورت را تشخیص می‌دهند و بر روی آن اعوجاج ایجاد می‌کند تا مطابق با مشخصه‌های چهره اصلی باشد و موجب می‌شود ژست بهتری ایجاد شود و  با شکل و ابعاد چهره اصلی تطبیق بیشتری داشته باشد. به منظور کاهش وضوح مرز‌ها فیلتر گاوسی اضافه می‌شود.

تشخیص دیپ فیک

ابتدا محصولات کم‌ بودجه دیپ فیک را با هم بررسی کنیم. در بسیاری از نسخه‌هایی که بودجه بالایی دارند، هنوز نواقص و کاستی‌هایی مشاهده می‌شود اما تعداد آن‌ها بسیار کمتر است.

 

نواقص و کاستی‌های deep fake

تیره و تار

در بسیاری از ویدئوهای دیپ فیک، چهره‌ها به طور غیرمعمولی تیره و تار هستند. چهره‌ها  به دو دلیل در این ویدئو‌ها تیره و تار هستند. اول، چهره جدید باید به خوبی با باقی تصویر ترکیب و ادغام شود. از این روی فیلترهایی اعمال می‌شود که اندکی چهره را تیره و تار خواهند کرد. دوم، بسیاری از محصولات کم بودجه از تصاویر چهره که وضوح پایینی دارند برای آموزش انکودر استفاده می‌کنند. از آنجایی که همزمان با افزایش وضوح چهره، زمان آموزش هم افزایش پیدا می‌کند، استفاده از تصاویری با وضوح پایین باعث می‌شود از فضای GPU کمتر استفاده شود و علاوه بر آن زمان آموزش هم کاهش پیدا می‌کند. در ابتدا، بسیاری از محصولات کم بودجه از چهره‌هایی با وضوح ۶۴×۶۴ استفاده می‌کردند و در نتیجه چهره‌هایی تیره و تار به وجود می‌آمد.

کاستی‌های deep fake

از این روی، در زمان کنونی بسیاری از محصولاتی که بودجه بالایی صرف تولید آن‌ها می‌شود با دقت بیشتری وضوح ورودی را انتخاب می‌کنند (اغلب ورودی‌هایی را انتخاب می‌کنند که وضوح بالاتری دارند). پس از آن‌که ویدئو برای روزهای متوالی با استفاده از کارت‌های گرافیک درجه یک High-end graphics cards آموزش دید، کیفیت آن به طرز قابل توجهی ارتقا پیدا می‌کند و تشخیص دیپ فیک دشوار می‌شود.

علاوه بر این می‌توانیم میزان شفافیت یک تصویر Sharpness، نور و شدت رنگ Tone color را با سایر چهره‌هایی که در ویدئو نمایش داده می‌شوند مقایسه کنیم. اگر شخصیت دیگری که در ویدئو حضور دارد واقعی باشد، تشخیص تفاوت‌ها به سادگی امکان‌پذیر است.

تصویر Sharpness

(تصویر سمت چپ: چهره جایگزین شده است، تصویر سمت راست: یکی از شخصیت های واقعی در ویدئو)

هرچند در ویدئویی که جردن پیل از اوباما منتشر کرده تنها یک فرد حضور دارد. در این ویدئو از ماسک‌ها استفاده می‌شود تا ناحیه فک و دهان اوباما کمتر تغییر کند. سایر اجزای صورت تغییری نکرده‌اند و ثابت باقی مانده‌اند. اما اگر به دقت ویدئو را تماشا کنید، متوجه می‌شوید که قسمت دهان نسبت به چشم‌ها تارتر است.

ویدئو با ماسک‌ها

جردن پیل و BuzzFeed با استفاده از Adobe After Effects و FakeApp این ویدئو را ساخته‌اند

توجه داشته باشید که این مشکل فقط در محصولاتی مشاهده می‌شود که بودجه پائینی برای تولید آن‌ها در نظر گرفته شده است. بسیاری از ویدئو‌های دیپ فیک با چهره‌هایی با وضوح بالا آموزش می‌بینند و نتیجه تولید ویدئویی با کیفیت ۱۴۴۰p خواهد بود. هرچند در این حالت نیز چهره‌ها کمی تار هستند اما در مقایسه با ویدئوهایی که با کیفیت HD (740p) مشاهده می‌کنیم کیفیت بالاتری دارد. در این حالت، به دلیل کیفیت بالای چهره‌ها، این فکر کمتر به ذهن بیننده خطور می‌کند که شاید این ویدئوها ساختگی و جعلی باشند. اما در تصویر مقابل می‌توانید قسمت‌هایی را مشاهده کنید که فیلتر گوسی به طور نامساوی اعمال شده و به همین دلیل می‌توان نتیجه گرفت که تصویر دستکاری شده است.

روش ساده ساخت سیستم توصیه گر

تصویر دستکاری شده

هرچند ویدئوهایی هم وجود دارند که در آن‌ها شخصیت‌های اصلی آرایش سنگینی دارند و یا بیش از اندازه در معرض نور قرار دارند. اگر دیپ فیک به درستی آموزش ببیند تشخیص نواقص و کاستی‌هایی که در بالا به آن‌ها اشاره شد، دشوار خواهد بود.

ویدئوهای دیپ فیک

تصویری که در مقابل سمت چپ مشاهده می‌کنید یکی از ویدئوهای دیپ فیک با «بودجه بالا» است و وضوح تصویر آن بالا است (۱۴۴۰p). در این تصویر در مقایسه با نسخه HD (740p) جزئیات بیشتری به نمایش گذاشته شده و به دشواری می‌توان نواقص و کاستی‎هایی که پیش از آن به آن‌ اشاره کردیم (تیره و تار بودن) را در این تصویر تشخیص دهیم. با توجه به تصویر مقابل متوجه می‌شویم دیپ فیک چگونه می‌تواند بر نواقص و کاستی‌های پیشین خود از جمله وضوح پایین، غلبه کند.

وضوح در دیپ فیک

رنگ پوست

در برخی چهره‌هایی که جایگزین چهره دیگری شده‌اند رنگ پوست غیرطبیعی به نظر می‌رسد.

رنگ پوست غیرطبیعی در تصویر

(تصویر سمت راست: بازیگر اصلی نقش تام کروز)

یا شاید افراد مشهور جای مناسبی را برای برنزه کردن و حمام آفتاب گرفتن انتخاب نکرده‌اند؟!

با استفاده از deep fake

با استفاده از deep fake ایجاد شده‌اند

برای حل این مشکل می‌توان افرادی را انتخاب کرد که رنگ پوست، مدل مو و شکل صورت آن‌ها مشابه شخصیتی اصلی است.

پل راد و جیمی فلن

پل راد و جیمی فلن

در تصویر مقابل، چهره پل راد با چهره جیمی فلن جا به جا شده است.

تقلید صدا، ژست و حالات افراد دیگر

علاوه بر این، می‌‌توانیم افرادی را انتخاب کنیم که در تقلید صدا، ژست و حالات افراد دیگر مهارت بالایی دارند. برای تماشای این ویدئو کلیک کنید.

دو ابرو

در صورتی که فرایند ترکیب و یا ماسک‌گذاری به درستی انجام نشود، در زمان ترکیب چهره جایگزین با چهره اصلی ممکن است در تصویر دو جفت ابرو ببینیم- یک جفت ابرو متعلق به چهره جدید و جفت دیگر متعلق به چهره اصلی.

دو ابرو در تصویر

دو چانه

علاوه بر این ممکن است در تصویر دو چانه مشاهده شود، اما اگر شخصیت اصلی حاضر در ویدئو را به خوبی نشناسید، تشخیص این‌که چانه متعلق به شخصیت اصلی است یا خیر دشوار است.

تشخیص دیپ فیک-دو چانه

عدم انسجام بخش‌های مختلف Spatial inconsistency

برای مشخص کردن ناهنجاری‌ها و موارد غیرطبیعی چهره، ابتدا می‌توانیم صورت را با سایر قسمت‌های بدن مقایسه کنیم. بدیهی است که نمی‌توانیم چهره یک بازیگر ۶۰ ساله را جایگزین چهره یک بازیگر بیست و چند ساله کنیم. در تصویر مقابل چهره بازیگر دیگری جایگزین چهره جنیفر لارنس شده است. بافت پوست و لطافت بازوها با صورت همخوانی ندارد.

عدم انسجام بخش‌های مختلف

استیو بوشمی در ویدئوی جنیفر لارنس

به بیانی دیگر برای این‌که تشخیص دهید تصویری اصلی است یا ساختگی، شدت رنگ، میزان شفافیت تصویر و بافت چهره‌های جایگزین‌شده را با باقی فیلم و فریمی که در مقابل شما است مقایسه کنید.

در هنگام جست‌و‌جو برای ناهماهنگی‌هایی که میان قسمت‌های مختلف تصویر وجود دارد می‌توانید عدم انسجام زمانی را نیز جست‌و‌جو کنید.

تکان خوردن

یکی از ایرادات اصلی دیپ فیک ها این است که فریم‌های ویدئو به صورت جداگانه و فریم به فریم تولید می‌شوند. تولید فریم‌های ویدئو به صورت جداگانه و تک تک ممکن است منجر به تولید فریم‌هایی شود که به لحاظ شدت رنگ، نور و سایه با فریم قبلی تفاوت‌های فاحشی داشته باشند. علاوه بر این در زمان بازپخش ویدئو، فریم‌ها تکان می‌خورند. برای تماشای این ویدئو کلیک کنید.

برخی مواقع، کیفیت فریم جایگزین ‌شده به حدی پایین است که فریم‌هایی که کیفیت پایینی دارند  به صورت دستی یا خودکار حذف می‌شوند. در صورتی که تعداد زیادی از فریم‌ها حذف نشود و بیننده هم دقت زیادی به خرج ندهد، متوجه عدم وجود برخی از فریم‌ها نمی‌شود.

در مقابل دو تصویر مشاهده می‌کنید. هرچند دو تصویر مقابل در فاصله کوتاهی از یکدیگر نمایش داده‌ شده‌اند اما میزان شفافیت تصویر و شدت رنگ آن دو تفاوت‌های فاحشی با یکدیگر دارد.

تشخیص دیپ فیک-تکان خوردن

در نمودار مقابل دو فریم دیگر نمایش داده شده که توزیع رنگ RGB آن‌ها با یکدیگر تفاوت دارد.

تشخیص دیپ فیک-دو فریم دیگر

تصویر و روشنایی مرتعش و لرزان Shimmering

اگر این ویدئو را با سرعت ۰.۲۵  پخش کنید همزمان با تکان خوردن سر، پوست صورت هم تکان می‌خورد و شدت رنگ به صورت غیرطبیعی تغییر می‌کند.

در دیپ فیک حرکت‌های سریع، ایجاد فریم‌هایی با صافی موضعی Temporal smoothness مناسب را با مشکل مواجه می‌کند. ممکن است دیکودر به اشتباه در ویژگی‌های چهره‌های فریم‌های مجاور تغییرات زیادی اعمال کند. تنها راه‌حل رفع این مشکل این است که در تابع هزینه مدت دیگری اضافه کنیم تا در طول فرایند آموزش ارتعاش در تصاویر و تغییر رنگ‌ها را جبران کند ( و ممکن است برای انجام این کار مجبور شویم تغییرات به خصوصی در طراحی و پیاده‌سازی اعمال کنیم).

مرز

در دیپ فیک، برای آن‌که بتوانید ویدئوهای جعلی را تشخیص دهید باید توجه ویژه‌ای به برخی نواحی نشان دهید. یکی از این نواحی مرزهای صورت در جایی است که با چهره اصلی ترکیب شده است.

تشخیص دیپ فیک-مرزهای صورت

در ویدئوها و تصاویری که از اهمیت بالاتری برخوردار هستند، تشخیص و مشاهده آرتیفکت‌ها دشوار است. در ماسک‌گذاری چهره‌های جدید می‌توان از الگوریتم‌های بهتری استفاده کرد و یا به صورت دستی تغییراتی در آن اعمال کرد.

تشخیص دیپ فیک-ماسک‌گذاری چهره‌های جدید

در مقابل تصویری از یک ویدئو با «بودجه بالا» را مشاهده می‌کنید. تصویر مقابل بی‌نقص است و ایرادی ندارد مگر اینکه با دقت به زوایای صورت گیلیان اندرسون توجه کنید.

تشخیص دیپ

ویرایش ویدئو پس از اتمام فرایند تولید

به طور کلی افزودن داده‌های آموزش برای برقرای تعادل میان زوایای چهره اصلی و چهره جایگزین یا ارتقا رنگ به صورت خودکار در طول فرایند آموزش بسیاری از آرتیفکت‌هایی را که در این مقاله به آن‌ها اشاره کردیم، برطرف می‌کند. با این حال، پس از اتمام فرایند تولید با استفاده از یک ماسک می‌توان ویدئو را ویرایش کرد و  سایر نواقص و کاستی‌ها را برطرف کرد.

دندان

یکی از اصلی‌ترین ایراداتی که می‌توان به ویدئوهای دیپ فیک وارد کرد، قسمت دندان‌ است. بازسازی ناحیه کوچکی که ساختار مشخصی هم دارد برای دیکودر دشوار است. اغلب در ویدئوهای دیپ فیک دندان‌ها تیره و تار هستند.

تشخیص دیپ فیک-دندان

فیک دیپ

در موارد دیگر، دندان‌ها نامرتب هستند و یا یکی از دندان‌ها دراز و یا کوچک است.

دیپ فیک-ندان‌ها نامرتب

متوجه شدم که در یکی از فیلم‌ها دیکودر دندان‌هایی ایجاد کرده که تعداد آن‌ها بیشتر از حد معمول است. برخی مواقع در ایجاد و نمایش دندان‌ها از جلوه سایه‌اندازی زیاد استفاده می‌شود. و دندان در فریم‌های مختلف فیلم، ظاهری متفاوت دارد. حتی در ویدئوهایی که «بودجه بالا»یی صرف تولید آن‌ها شده و از کیفیت بالایی برخوردار هستند، ممکن است دندان‌ها به درستی نمایش داده نشوند. همان‌گونه که در تصویر بالا مشاهده می‌کنید، چندین دندان به هم متصل شده‌اند.

روش ساده ساخت سیستم توصیه گر

تشخیص دیپ فیک-وضعیت دندان

ژست

زمانی‌که ویدئوهای دیپ فیک فیلم سکوت بره‌ها را با فیلم اصلی مقایسه می‌کردم، متوجه شدم که چندین ثانیه از فیلم اصلی حذف شده‌ است.

ژست در تشخیص دیپ فیک

فریمی که از این فیلم حذف شده، شامل قسمتی است که دوربین فک آنتونی هاپکینز را نشان می‌دهد. به احتمال زیاد تهیه‌کننده به اندازه کافی از ویلم دفو فریم در اختیار نداشته تا به مدل دیپ فیک آموزش دهد صحنه را به درستی بازآفرینی کند. در نتیجه این صحنه را به صورت دستی ویرایش کرده است. در بسیاری از ویدئوهای دیپ فیک، کیفیت نمای نیم‌رخ بازیگر جایگزین به حدی پایین است که به آسانی می‌توان تشخیص داد که ویدئو جعلی و ساختگی است.

ویدئوهای دیپ فیک، کیفیت نمای نیم‌رخ

هرچند ویدئوهای دیپ فیک سریال «بریکینگ بد» در تقلید و جعل دونالد ترامپ بسیار موفق عمل کرده‌اند، اما کیفیت نمای نیم‌رخ (جانبی) چندان خوب نیست.

ویدئوهای دیپ فیک

در هر حال در فرایند آموزش می‌توان ویدئوفریم‌های مرتبط را اضافه کرد و بر این مشکل غلبه کرد. در آینده بیشتر به این مبحث خواهیم پرداخت.

اشیای تار Obscure Objects

برخی اوقات اشیای تار و نامشخصی که پیرامون صورت جابه‌جا می‌شوند می‌توانند مدل دیپ فیک را به اشتباه بیندازند. دلیل اصلی روی دادن چنین اتفاقی این است که به اندازه کافی داده به مدل تغذیه نمی‌شود تا این‌گونه موقعیت‌ها را به درستی یاد بگیرد. در یکی از ویدئوهای «بودجه بالای» دیپ فیک سریال «بریکینگ بد» قسمتی از تصویر حذف شده و باعث شده که چهره سمت چپ تار شود. به همین دلیل اغلب در ویدئوها به دنبال چهره‌هایی می‌گردم که مات و نامشخص هستند، وجود این‌گونه چهره‌های نشان می‌دهد که ویدئو جعلی و ساختگی است یا خیر.

اشیای تار

 

درخشندگی و انعکاس

به نظر می‌رسد در برخی ویدئوهای دیپ فیک در میزان درخشندگی و انعکاس یا زیاده‌روی شده، یا اصلاً اعمال نشده و یا شدت و کیفیت مناسب را ندارند. یکی دیگر از ایراداتی که می‌توان به دیپ فیک وارد کرد این است که در ایجاد و نمایش ساختارهای کوچک عملکرد مناسبی ندارد. در هر حال، این عامل باعث می‌شود که به فیلم‌های واقعی – در مقایسه با ویدئوهای جعلی و ساختگی- اعتماد بیشتری داشته باشم.

درخشندگی در تشخیص دیپ فیک

تصویر سمت راست جعلی و ساختگی است

انعکاس در تشخیص دیپ فیک

تصویر سمت چپ جعلی و ساختگی است

عینک

در بسیاری از ویدئوهایی با «بودجه پایین»، دسته‌های عینک از تصویر حذف می‌شوند.

عینک در تشخیص دیپ فیک

تنبلی چشم

کماکان از فریم‌های ۲-D  برای ساخت مدل‌های‌ دیپ فیک استفاده می‌شود. عملیات‌هایی همچون ایجاد اعوجاج ممکن است در طول فرایند از برخی اطلاعات ۳-D غافل بمانند. برای مثال، ممکن است در ویدئوی دیپ فیک شاهد تنبلی چشم باشیم،

تنبلی چشم در تشخیص دیپ فیک

 

اما در ویدئوی اصلی نشانی از آن نباشد.

ویدئو در تشخیص دیپ فیک

 

این مشکل می‌تواند در GAN روی دهد که در مقاله StyleGAN2 نیز راجع به آن توضیح داده شده:

«در این تصویر دندان‌ها هم‌سو با ژست نیستند اما همان‌گونه که با خط آبی نشان داده شده است، با دوربین در یک جهت قرار دارند.»

دندان‌ها هم‌سو با ژست نیستند-تشخیص دیپ فیک

سیاست‌مداران و افراد مشهور

شکل و زاویه صورت

سیاست‌مداران و افراد مشهور جز کسانی هستند که بیش از سایرین در معرض جعل هویت (در تصاویر و ویدئو‌ها) قرار دارند. معمولاً از deep fake در ویدئوهای مستهجن افراد مشهور استفاده می‌شود.

شکل و زاویه صورت در تشخیص دیپ فیک

 

در حال حاضر در بسیاری از موارد، نمای کلی چهره را جایگزین نمی‌کنیم. از این روی، می‌توانیم دیتابیسی متشکل از شخصیت‌های مردمی ایجاد می‌کنیم تا بتوانیم ویدئوها و تصاویر ساختگی و جعلی را تشخیص دهیم. هرچند، فن‌آوری‌های نوین‌تر ممکن است از GAN برای جایگزینی نمای کلی چهره استفاده کنند. اما استفاده از GAN برای جایگزینی نمای کلی چهره هنوز در مراحل اولیه به سر می‌برد. لازم است یادآور شویم که برخلاف تصور بسیاری، dدیپ فیک‌ها از GAN استفاده نمی‌کنند.

تشخیص دیپ فیک3

 

برای مثال، در ویدئوهای دیپ فیک فیلم «نابودگر» پیشانی بلند استالونه به خوبی نمایش داده نشده است.

فیلم «نابودگر در تشخیص دیپ فیک

 

ویدئوهایی با بودجه بالا

منظور از واژه ویدئوهایی با «بودجه بالا» ،که به دفعات در این مقاله به آن اشاره شد، لزوماً پروژه‌هایی که سرمایه‌های هنگفتی صرف تولید آن‌ها شده نیست. در مقاله پیش‌رو، واژه ویدئوهایی با «بودجه بالا» به پروژه‌هایی اطلاق می‌شود که در ساخت و تولید آن‌ها کارت‌های گرافیک کامپیوتر با کیفیت بالا استفاده شده، مدت زمان ( روز) قابل قبولی به آموزش مدل‌های اختصاص داده شده و علاوه بر آن افراد متخصص در ساخت و تولید آن‌ها مشارکت داشته‌اند. جمع‌آوری، انتخاب و پاک‌کردن دیتاست آموزشی در سطح کیفیت پروژه نقش حیاتی دارد. کسب دانش تخصصی در این زمینه کار دشواری نیست. ویدئوهای آموزشی و ابزارهای رایگان بسیاری در اختیار علاقه‌مندان به این حوزه قرار دارد. برای یادگیری این حرفه ممکن است به آزمون و خطا نیاز داشته باشید اما نیازی به فراگیری دانش هوش مصنوعی نیست. ( هرچند کسب دانش در حوزه هوش مصنوعی ممکن است به شما کمک کند، اما راهنماهای بسیاری وجود دارند که می‌توانند به شما کمک کنند.) اغلب پس از اتمام فرایند تولید به صورت دستی تغییراتی در ویدئو اعمال می‌شود تا ویدئویی با کیفیت عالی تولید شود. بسیاری از افرادی که تجربه ویرایش فیلم دارند می‌توانند به سرعت این فرایند را فرا بگیرند.

در این مقاله، این‌گونه به نظر می‌رسد که به آسانی با تماشای ویدئو می‌توان جعلی یا واقعی بودن فیلم را تشخیص داد. اما این باور غلط است چرا که افراد دانش تخصصی بیشتری برای تولید جدید‌ترین ویدئوها کسب می‌کنند. برای تشخیص ویدئوهای deep fake یک راه‌حل واحد وجود ندارد. در هر ویدئو ایرادات و اشتباهات متفاوتی مشاهده می‌شود. بدتر از آن، اشتباهات کمتر روی می‎دهند و تشخیص آن‌ها دشوارتر است. در مقالات بعدی، برخی روش‌های برنامه‌ای تشخیص ویدئوهای جعلی را با هم بررسی می‌کنیم. با بهره‌گیری از دانشی که در این مقاله کسب‌ کرده‌اید می‌توانید این ویدئوها را تحلیل کنید و نکاتی که در این مقاله فرا گرفته‌اید را بر روی آن‌ها اعمال کنید.

اگر با دقت ویدئوها را تماشا کنید متوجه می‌شوید که یکی از فاحش‌ترین اشتباهات در چشم‌ها روی می‌دهد. در این ویدئوها مردک چشم دایره‌شکل نیست.

 دیپ فیک4

 

همان‌گونه که پیش از این نیز گفتیم، با دقت به مرزها نیز می‌توان ویدئوهای deep fake را تشخیص داد.

مرزها در تشخیص دیپ فیک

 

سریال بریکینگ بد

برای تماشای این ویدئو کلیک کنید.

چروک اطراف چشم با لطافت و صافی پیرامون چانه هم‌خوانی ندارد. در بسیاری از ویدئوهای دیپ فیک افراد مشهور اغلب این مشکل روی می‌دهد. اما شاید جلسات بوتاکس افراد مشهور موفقیت آمیز نبوده است!

سریال بریکینگ بد در تشخیص دیپ فیک

سایه یک طرف صورت غیر طبیعی است. و متأسفانه کاملاً نشان می‌دهد که ویدئو جعلی و ساختگی است.

سریال بریکینگ بد در تشخیص دیپ فیک2

علاوه بر این، ترس و وحشتی که در چهره نمایان است را به دشواری می‌توان بازآفرینی کرد، چرا که جمع‌آوری داده‌ها (تصاویر) جرد کوشنر که در صورت وی ترس و وحشت دیده شود، دشوار است. در عوض، در فریمی که بازآفرینی شده فقط علامت‌های تار و نامشخصی نمایش داده می‌شود.

تشخیص دیپ فیک سریال بریکینگ بد

برای تماشای یک ویدئوی ساختگی و جعلی دیگر، کلیک کنید.

و برای مشاهده ویدئوی اصلی بر روی این لینک کلیک کنید تا بتوانید ایرادات و مشکلات را تشخیص دهید.

ویدئوهایی با بودجه پایین

ما همان‌ چیزی را باور می‌کنیم که می‌خواهیم باور کنیم. یک ویدئوی جعلی و ساختگی از نانسی پلوسی در اینترنت منتشر شده که به نظر می‌رسد نانسی پلوسی در آن فیلم حالت غیرطبیعی دارد و جویده جویده صحبت می‌کند. این ویدئو که کیفیت پایینی دارد با استفاده از deep fake تولید نشده است. در عوض، نما ۲۵% کند شده و گام‌ها تغییر کرده‌اند تا این‌گونه به نظر برسد که وی جویده جویده صحبت می‌کند. درسی که در اینجا می‌توانیم یاد بگیریم این است که ویدئوهای جعلی و ساختگی نیز می‌توانند به صورت گسترده به اشتراک گذاشته شوند. محتواها با استفاده از الگوریتم‌ها در شبکه‌های اجتماعی به اشتراک گذاشته می‌شوند و هیچ یک از این محتواها از استانداردهای روزنامه‌نگاری تبعیت نمی‌کنند. برای همین لازم است ابتدأ منبع را به دقت بررسی کنید. شبکه‌های اجتماعی منبع اطلاعاتی خوبی نیستند و نمی‌توان به اطلاعاتی که در آن‌ها منتشر می‌شود اعتماد کرد.

ویدئوهایی با بودجه پایین در تشخیص دیپ فیک

ویدئوهای جعلی و ساختگی  اخبار حقیقی و واقعی را هم با مشکل مواجه می‌کنند. بارها شنیده‌ایم که سیاست‌مداران مدعی شده‌اند که شایعاتی که راجع به آن‌ها منتشر شده ساختگی و جعلی است. این شایعات پیش از روی کار آمدن دیپ فیک منتشر شده، اما دیپ فیک می‌تواند همه را به اشتباه بیندازد.

 

این مطلب چه میزان برای شما مفید بوده است؟
[کل: ۰ میانگین: ۰]

ساماندهی بازار مسکن با استفاده از کاربردهای هوش مصنوعی

مقاله قبلی

الگوریتم AlphaFold: راهکاری برای چالش ۵۰ ساله‌ی زیست‌شناسی

مقاله بعدی

شما همچنین ممکن است دوست داشته باشید

نظرات

پاسخ دهید

نشانی ایمیل شما منتشر نخواهد شد.