Filter by دسته‌ها
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 فیسبوک می‌تواند «خطرناک ترین جنایت آینده» و هوش مصنوعی سازنده‌ی آن را تشخیص دهد

فیسبوک می‌تواند «خطرناک ترین جنایت آینده» و هوش مصنوعی سازنده‌ی آن را تشخیص دهد

فیس‌بوک موفق شد جعل عمیق که می‌توان از آن به عنوان خطرناک ترین جنایت آینده یاد کرد را با مهندسی معکوس تشخیص دهد؛ درست مانند شناسایی اجزاء اتومبیل از روی صدای موتور آن، حتی اگر اتومبیل جدید باشد و کسی تاکنون صدای آن‌ را نشنیده باشد.

مدل جدید فیس‌بوک قادر به تشخیص ویدئوهایی است که با فناوری جعل عمیق ساخته شده‌اند، و در صورتی که جعل عمیق باشد، می‌تواند الگوریتم مورد استفاده را نیز شناسایی کند.

اصطلاح «جعل عمیق» (دیپ‌فیک) به ویدویی اطلاق می‌شود که در آن از هوش مصنوعی و یادگیری عمیق، روش یادگیری الگوریتمی که در آموزش رایانه‌ها به‌کار می‌رود، برای دست‌کاری محتوا استفاده می‌کنند؛ برای مثال، فرد در ویدیو حرفی می‌زند که در حقیقت به زبان نیاورده است.

نمونه‌های قابل توجه جعل عمیق شامل ویدیو‌های متعددی از خطابه رئیس جمهور ریچارد نیکسون درباره پروژه آپولوی11 و ویدیویی از باراک اوباما است که در آن به دونالد ترامپ توهین می‌کند. اگرچه، امروزه ویدیوهای جعل عمیق نسبتاً بی‌خطر شده است، اما دانشمندان معتقدند جعل عمیق مسبب خطرناک ترین جنایت آینده خواهد بود.

اولین مرحله در تشخیص جعل عمیق این است که تصاویر واقعی را از جعلی تمیز دهیم. اما محققان به اطلاعات محدودی دسترسی دارند. آن‌ها تنها به جفت‌های ورودی-خروجی احتمالی یا اطلاعات سخت افزاری متکی هستند که ممکن است در دنیای واقعی در دسترس نباشد.

رویکرد جدید فیس‌بوک مبتنی بر شناسایی الگوهای منحصربه‌فرد به‌کار‌رفته در مدل‌های هوش مصنوعی‌ سازنده‌ی جعل عمیق است. ویدیو یا تصویر وارد شبکه عصبی می‌شود تا «اثر» به جای مانده در عکس را شناسایی کند؛ منظور از اثر، نقص‌هایی از قبیل پیکسل‌های نویزدار یا ویژگی‌های نامتقارن است که هنگام ساخت جعل عمیق به وجود می‌آیند. فیس‌بوک در رویکرد جدید خود از این آثار برای پیدا کردن اَبَرپارامترها استفاده می‌کند.

چرا تشخیص دیپ‌فیک مهم است

به گزارش فیس‌بوک «برای درک بهتر این موضوع، فرض کنید مدل مولدِ جعل عمیق، نوعی اتومبیل است و ابرپارامترهای مدل، اجزاء مختلف موتور هستند. ظاهر اتومبیل‌ها شبیه به هم است، اما در زیر کاپوت موتورهای مختلف، اجزاء کاملاً متفاوتی دارند. تکنیک مهندسی معکوس ما، به نوعی، شبیه شناسایی اجزاء اتومبیل بر اساس صدای موتور است، حتی اگر اتومبیل جدید باشد و کسی تاکنون صدای آن را نشنیده باشد».

به دلیل اینکه نرم‌افزار جعل عمیق به راحتی قابل شخصی‌سازی است و عاملین بداندیش به راحتی می‌توانند هویت خود را پنهان کنند، دستیابی به این آموزش‌ها از اهمیت زیادی برخوردار است. فیس‌بوک ادعا می‌کند تنها از روی یک تصویر ثابت می‌تواند تشخیص دهد که آیا ویدیو جعل عمیق است یا نه و با شناسایی شبکه عصبی مورد استفاده در ساخت ویدیو، می‌تواند فرد یا افرادی را که جعل عمیق را ساخته‌اند پیدا کند.

«به دلیل اینکه مدل‌های مولد به لحاظ معماری شبکه و تابع زیان آموزشی، تفاوت زیادی با یکدیگر دارند، نگاشت از روی تصویر جعل عمیق یا ساختگی به فضای ابرپارامتر، فهم دقیق ویژگی‌های مدل سازنده‌ی جعل عمیق را امکان‌پذیر کرده است».

احتمالاً این آخرین نبرد با جعل عمیق نخواهد بود، زیرا این فناوری کماکان به تطبیق خود با شرایط جدید ادامه می‌دهد_  و اگر افراد بداندیش از وجود چنین دانشی اطلاع داشته باشند، برای مقابله با آن برنامه‌ریزی خواهند کرد. با این حال، این تحقیقات به مهندسان کمک می‌کند تا موارد جعل عمیق فعلی را بهتر بررسی کرده و مرزهای شناسایی فیلم‌ها و تصاویر جعل شده را جابجا کنند.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

مقاله ما چطور بود؟

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
لطفاً برای تکمیل این فرم، جاوا اسکریپت را در مرورگر خود فعال کنید.