فیسبوک میتواند «خطرناک ترین جنایت آینده» و هوش مصنوعی سازندهی آن را تشخیص دهد
فیسبوک موفق شد جعل عمیق که میتوان از آن به عنوان خطرناک ترین جنایت آینده یاد کرد را با مهندسی معکوس تشخیص دهد؛ درست مانند شناسایی اجزاء اتومبیل از روی صدای موتور آن، حتی اگر اتومبیل جدید باشد و کسی تاکنون صدای آن را نشنیده باشد.
مدل جدید فیسبوک قادر به تشخیص ویدئوهایی است که با فناوری جعل عمیق ساخته شدهاند، و در صورتی که جعل عمیق باشد، میتواند الگوریتم مورد استفاده را نیز شناسایی کند.
اصطلاح «جعل عمیق» (دیپفیک) به ویدویی اطلاق میشود که در آن از هوش مصنوعی و یادگیری عمیق، روش یادگیری الگوریتمی که در آموزش رایانهها بهکار میرود، برای دستکاری محتوا استفاده میکنند؛ برای مثال، فرد در ویدیو حرفی میزند که در حقیقت به زبان نیاورده است.
نمونههای قابل توجه جعل عمیق شامل ویدیوهای متعددی از خطابه رئیس جمهور ریچارد نیکسون درباره پروژه آپولوی11 و ویدیویی از باراک اوباما است که در آن به دونالد ترامپ توهین میکند. اگرچه، امروزه ویدیوهای جعل عمیق نسبتاً بیخطر شده است، اما دانشمندان معتقدند جعل عمیق مسبب خطرناک ترین جنایت آینده خواهد بود.
اولین مرحله در تشخیص جعل عمیق این است که تصاویر واقعی را از جعلی تمیز دهیم. اما محققان به اطلاعات محدودی دسترسی دارند. آنها تنها به جفتهای ورودی-خروجی احتمالی یا اطلاعات سخت افزاری متکی هستند که ممکن است در دنیای واقعی در دسترس نباشد.
رویکرد جدید فیسبوک مبتنی بر شناسایی الگوهای منحصربهفرد بهکاررفته در مدلهای هوش مصنوعی سازندهی جعل عمیق است. ویدیو یا تصویر وارد شبکه عصبی میشود تا «اثر» به جای مانده در عکس را شناسایی کند؛ منظور از اثر، نقصهایی از قبیل پیکسلهای نویزدار یا ویژگیهای نامتقارن است که هنگام ساخت جعل عمیق به وجود میآیند. فیسبوک در رویکرد جدید خود از این آثار برای پیدا کردن اَبَرپارامترها استفاده میکند.
چرا تشخیص دیپفیک مهم است
به گزارش فیسبوک «برای درک بهتر این موضوع، فرض کنید مدل مولدِ جعل عمیق، نوعی اتومبیل است و ابرپارامترهای مدل، اجزاء مختلف موتور هستند. ظاهر اتومبیلها شبیه به هم است، اما در زیر کاپوت موتورهای مختلف، اجزاء کاملاً متفاوتی دارند. تکنیک مهندسی معکوس ما، به نوعی، شبیه شناسایی اجزاء اتومبیل بر اساس صدای موتور است، حتی اگر اتومبیل جدید باشد و کسی تاکنون صدای آن را نشنیده باشد».
به دلیل اینکه نرمافزار جعل عمیق به راحتی قابل شخصیسازی است و عاملین بداندیش به راحتی میتوانند هویت خود را پنهان کنند، دستیابی به این آموزشها از اهمیت زیادی برخوردار است. فیسبوک ادعا میکند تنها از روی یک تصویر ثابت میتواند تشخیص دهد که آیا ویدیو جعل عمیق است یا نه و با شناسایی شبکه عصبی مورد استفاده در ساخت ویدیو، میتواند فرد یا افرادی را که جعل عمیق را ساختهاند پیدا کند.
«به دلیل اینکه مدلهای مولد به لحاظ معماری شبکه و تابع زیان آموزشی، تفاوت زیادی با یکدیگر دارند، نگاشت از روی تصویر جعل عمیق یا ساختگی به فضای ابرپارامتر، فهم دقیق ویژگیهای مدل سازندهی جعل عمیق را امکانپذیر کرده است».
احتمالاً این آخرین نبرد با جعل عمیق نخواهد بود، زیرا این فناوری کماکان به تطبیق خود با شرایط جدید ادامه میدهد_ و اگر افراد بداندیش از وجود چنین دانشی اطلاع داشته باشند، برای مقابله با آن برنامهریزی خواهند کرد. با این حال، این تحقیقات به مهندسان کمک میکند تا موارد جعل عمیق فعلی را بهتر بررسی کرده و مرزهای شناسایی فیلمها و تصاویر جعل شده را جابجا کنند.
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید