Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 فیسبوک می‌تواند «خطرناک ترین جنایت آینده» و هوش مصنوعی سازنده‌ی آن را تشخیص دهد

فیسبوک می‌تواند «خطرناک ترین جنایت آینده» و هوش مصنوعی سازنده‌ی آن را تشخیص دهد

زمان مطالعه: 2 دقیقه

فیس‌بوک موفق شد جعل عمیق که می‌توان از آن به عنوان خطرناک ترین جنایت آینده یاد کرد را با مهندسی معکوس تشخیص دهد؛ درست مانند شناسایی اجزاء اتومبیل از روی صدای موتور آن، حتی اگر اتومبیل جدید باشد و کسی تاکنون صدای آن‌ را نشنیده باشد.

مدل جدید فیس‌بوک قادر به تشخیص ویدئوهایی است که با فناوری جعل عمیق ساخته شده‌اند، و در صورتی که جعل عمیق باشد، می‌تواند الگوریتم مورد استفاده را نیز شناسایی کند.

اصطلاح «جعل عمیق» (دیپ‌فیک) به ویدویی اطلاق می‌شود که در آن از هوش مصنوعی و یادگیری عمیق، روش یادگیری الگوریتمی که در آموزش رایانه‌ها به‌کار می‌رود، برای دست‌کاری محتوا استفاده می‌کنند؛ برای مثال، فرد در ویدیو حرفی می‌زند که در حقیقت به زبان نیاورده است.

نمونه‌های قابل توجه جعل عمیق شامل ویدیو‌های متعددی از خطابه رئیس جمهور ریچارد نیکسون درباره پروژه آپولوی11 و ویدیویی از باراک اوباما است که در آن به دونالد ترامپ توهین می‌کند. اگرچه، امروزه ویدیوهای جعل عمیق نسبتاً بی‌خطر شده است، اما دانشمندان معتقدند جعل عمیق مسبب خطرناک ترین جنایت آینده خواهد بود.

اولین مرحله در تشخیص جعل عمیق این است که تصاویر واقعی را از جعلی تمیز دهیم. اما محققان به اطلاعات محدودی دسترسی دارند. آن‌ها تنها به جفت‌های ورودی-خروجی احتمالی یا اطلاعات سخت افزاری متکی هستند که ممکن است در دنیای واقعی در دسترس نباشد.

رویکرد جدید فیس‌بوک مبتنی بر شناسایی الگوهای منحصربه‌فرد به‌کار‌رفته در مدل‌های هوش مصنوعی‌ سازنده‌ی جعل عمیق است. ویدیو یا تصویر وارد شبکه عصبی می‌شود تا «اثر» به جای مانده در عکس را شناسایی کند؛ منظور از اثر، نقص‌هایی از قبیل پیکسل‌های نویزدار یا ویژگی‌های نامتقارن است که هنگام ساخت جعل عمیق به وجود می‌آیند. فیس‌بوک در رویکرد جدید خود از این آثار برای پیدا کردن اَبَرپارامترها استفاده می‌کند.

چرا تشخیص دیپ‌فیک مهم است

به گزارش فیس‌بوک «برای درک بهتر این موضوع، فرض کنید مدل مولدِ جعل عمیق، نوعی اتومبیل است و ابرپارامترهای مدل، اجزاء مختلف موتور هستند. ظاهر اتومبیل‌ها شبیه به هم است، اما در زیر کاپوت موتورهای مختلف، اجزاء کاملاً متفاوتی دارند. تکنیک مهندسی معکوس ما، به نوعی، شبیه شناسایی اجزاء اتومبیل بر اساس صدای موتور است، حتی اگر اتومبیل جدید باشد و کسی تاکنون صدای آن را نشنیده باشد».

به دلیل اینکه نرم‌افزار جعل عمیق به راحتی قابل شخصی‌سازی است و عاملین بداندیش به راحتی می‌توانند هویت خود را پنهان کنند، دستیابی به این آموزش‌ها از اهمیت زیادی برخوردار است. فیس‌بوک ادعا می‌کند تنها از روی یک تصویر ثابت می‌تواند تشخیص دهد که آیا ویدیو جعل عمیق است یا نه و با شناسایی شبکه عصبی مورد استفاده در ساخت ویدیو، می‌تواند فرد یا افرادی را که جعل عمیق را ساخته‌اند پیدا کند.

«به دلیل اینکه مدل‌های مولد به لحاظ معماری شبکه و تابع زیان آموزشی، تفاوت زیادی با یکدیگر دارند، نگاشت از روی تصویر جعل عمیق یا ساختگی به فضای ابرپارامتر، فهم دقیق ویژگی‌های مدل سازنده‌ی جعل عمیق را امکان‌پذیر کرده است».

احتمالاً این آخرین نبرد با جعل عمیق نخواهد بود، زیرا این فناوری کماکان به تطبیق خود با شرایط جدید ادامه می‌دهد_  و اگر افراد بداندیش از وجود چنین دانشی اطلاع داشته باشند، برای مقابله با آن برنامه‌ریزی خواهند کرد. با این حال، این تحقیقات به مهندسان کمک می‌کند تا موارد جعل عمیق فعلی را بهتر بررسی کرده و مرزهای شناسایی فیلم‌ها و تصاویر جعل شده را جابجا کنند.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]