خطرناک ترین جنایت آینده
آموزش‌های پایه‌ای هوش مصنوعیآموزش‌های پیشرفته هوش مصنوعیاخبارداده کاوی و بیگ دیتایادگیری عمیق

فیسبوک می‌تواند «خطرناک ترین جنایت آینده» و هوش مصنوعی سازنده‌ی آن را تشخیص دهد

    0

    فیس‌بوک موفق شد جعل عمیق  که می‌توان از آن به عنوان خطرناک ترین جنایت آینده یاد کرد را با مهندسی معکوس تشخیص دهد؛ درست مانند شناسایی اجزاء اتومبیل از روی صدای موتور آن، حتی اگر اتومبیل جدید باشد و کسی تاکنون صدای آن‌ را نشنیده باشد.

    مدل جدید فیس‌بوک قادر به تشخیص ویدئوهایی است که با فناوری جعل عمیق ساخته شده‌اند، و در صورتی که جعل عمیق باشد، می‌تواند الگوریتم مورد استفاده را نیز شناسایی کند.

    اصطلاح «جعل عمیق» (دیپ‌فیک) به ویدویی اطلاق می‌شود که در آن از هوش مصنوعی و یادگیری عمیق، روش یادگیری الگوریتمی که در آموزش رایانه‌ها به‌کار می‌رود، برای دست‌کاری محتوا استفاده می‌کنند؛ برای مثال، فرد در ویدیو حرفی می‌زند که در حقیقت به زبان نیاورده است.

    نمونه‌های قابل توجه جعل عمیق شامل ویدیو‌های متعددی از خطابه رئیس جمهور ریچارد نیکسون درباره پروژه آپولوی۱۱ و ویدیویی از باراک اوباما است که در آن به دونالد ترامپ توهین می‌کند. اگرچه، امروزه ویدیوهای جعل عمیق نسبتاً بی‌خطر شده است، اما دانشمندان معتقدند جعل عمیق مسبب خطرناک ترین جنایت آینده خواهد بود.

    اولین مرحله در تشخیص جعل عمیق این است که تصاویر واقعی را از جعلی تمیز دهیم. اما محققان به اطلاعات محدودی دسترسی دارند. آن‌ها تنها به جفت‌های ورودی-خروجی احتمالی یا اطلاعات سخت افزاری متکی هستند که ممکن است در دنیای واقعی در دسترس نباشد.

    رویکرد جدید فیس‌بوک مبتنی بر شناسایی الگوهای منحصربه‌فرد به‌کار‌رفته در مدل‌های هوش مصنوعی‌ سازنده‌ی جعل عمیق است. ویدیو یا تصویر وارد شبکه عصبی می‌شود تا «اثر» به جای مانده در عکس را شناسایی کند؛ منظور از اثر، نقص‌هایی از قبیل پیکسل‌های نویزدار یا ویژگی‌های نامتقارن است که هنگام ساخت جعل عمیق به وجود می‌آیند. فیس‌بوک در رویکرد جدید خود از این آثار برای پیدا کردن اَبَرپارامترها استفاده می‌کند.

    چرا تشخیص دیپ‌فیک مهم است

    به گزارش فیس‌بوک «برای درک بهتر این موضوع، فرض کنید مدل مولدِ جعل عمیق، نوعی اتومبیل است و ابرپارامترهای مدل، اجزاء مختلف موتور هستند. ظاهر اتومبیل‌ها شبیه به هم است، اما در زیر کاپوت موتورهای مختلف، اجزاء کاملاً متفاوتی دارند. تکنیک مهندسی معکوس ما، به نوعی، شبیه شناسایی اجزاء اتومبیل بر اساس صدای موتور است، حتی اگر اتومبیل جدید باشد و کسی تاکنون صدای آن را نشنیده باشد».

    به دلیل اینکه نرم‌افزار جعل عمیق به راحتی قابل شخصی‌سازی است و عاملین بداندیش به راحتی می‌توانند هویت خود را پنهان کنند، دستیابی به این آموزش‌ها از اهمیت زیادی برخوردار است. فیس‌بوک ادعا می‌کند تنها از روی یک تصویر ثابت می‌تواند تشخیص دهد که آیا ویدیو جعل عمیق است یا نه و با شناسایی شبکه عصبی مورد استفاده در ساخت ویدیو، می‌تواند فرد یا افرادی را که جعل عمیق را ساخته‌اند پیدا کند.

    «به دلیل اینکه مدل‌های مولد به لحاظ معماری شبکه و تابع زیان آموزشی، تفاوت زیادی با یکدیگر دارند، نگاشت از روی تصویر جعل عمیق یا ساختگی به فضای ابرپارامتر، فهم دقیق ویژگی‌های مدل سازنده‌ی جعل عمیق را امکان‌پذیر کرده است».

    احتمالاً این آخرین نبرد با جعل عمیق نخواهد بود، زیرا این فناوری کماکان به تطبیق خود با شرایط جدید ادامه می‌دهد_  و اگر افراد بداندیش از وجود چنین دانشی اطلاع داشته باشند، برای مقابله با آن برنامه‌ریزی خواهند کرد. با این حال، این تحقیقات به مهندسان کمک می‌کند تا موارد جعل عمیق فعلی را بهتر بررسی کرده و مرزهای شناسایی فیلم‌ها و تصاویر جعل شده را جابجا کنند.

    طراحی پوست ربات با الهام از آفتاب‌پرست‌

    مقاله قبلی

    یادگیری انتقال و تنظیم دقیق شبکه‌‌ های عصبی پیچشی

    مقاله بعدی

    شما همچنین ممکن است دوست داشته باشید

    نظرات

    پاسخ دهید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *