40 گام به سوی آینده‌ای هوشمند - مجموعه وبینارهای رایگان در حوزه هوش مصنوعی
Filter by دسته‌ها
chatGTP
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
تیتر یک
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 انتخابات سال ۲۰۲۰ آمریکا: شناسایی دیپ فیک با ابزار جدید مایکروسافت

انتخابات سال ۲۰۲۰ آمریکا: شناسایی دیپ فیک با ابزار جدید مایکروسافت

به‌تازگی مایکروسافت اعلام کرده است ابزار جدیدی را برای مقابله با گسترش دیپ فیک تهیه کرده و قرار است ابزار شناسایی دیپ فیک برای انتخابات سال ۲۰۲۰ آمریکا استفاده شود. دیپ‌فیک ویدئویی است که در آن از هوش مصنوعی و یادگیری عمیق (یک روش یادگیری الگوریتمی برای آموزش رایانه) استفاده می‌شود تا طوری وانمود شود که فردی در حال گفتن حرف‌هایی است که در واقعیت آن‌ها را نگفته است.

سرویس تایید اصالت مایکروسافت  قادر است یک عکس ثابت یا یک فیلم را تجزیه‌وتحلیل کند و به بیننده بگوید که چند درصد احتمال دارد این ویدیو جعلی باشد.

مایکروسافت می‌گوید ابزار آن‌ها می‌تواند به‌گونه‌ای  تجزیه‌وتحلیل را ارائه دهد که هم‌زمان با پخش ویدیو با نشان‌دادن هر فریم در لحظه درصد واقعی‌‎بودن آن را نشان دهد. این ابزار نقاط محو یا تصاویر grayscale را که ممکن است برای چشم انسان قابل‌مشاهده نباشد، تشخیص ‌می‌دهد.

مایکروسافت در متنی که منتشر کرده است می‌گوید: ما انتظار داریم که روش‌های تولید محتوای تصویری جعلی همچنان رشد کنند. ازآنجایی‌که همه روش‌های تشخیص هوش مصنوعی ممکن است با درجاتی از شکست مواجه شوند، ما باید متوجه این موضوع باشیم  و آماده مقابله با دیپ‌فیک باشیم  که همواره در حال شناسایی نقاط ضعف ما و سوءاستفاده از آن است. بنابراین در طولانی‌مدت ما باید به دنبال روش‌های کارآمدتر برای حفظ و تأیید صحت مقاله‌های خبری و سایر محتواهای تصویری باشیم.

مایکروسافت همچنین گفت که فناوری جدیدی را توسعه داده است که برای شناسایی دیپ فیک و محتوای دستکاری‌شده است و به مردم اطمینان دهد که محتوایی که در حال مشاهده آن هستند موثق است”

این کار از طریق برخی از اجزا انجام می‌شود: یکی از این اجزا در Microsoft Azure که سرویس رایانش ابری مایکروسافت است تعبیه‌شده است که به سازندگان محتوا اجازه می‌دهد تا هش‌های دیجیتال و گواهینامه‌ها را به محتوای خود اضافه کنند. به گفته مایکروسافت این هش‌ها می‌توانند در افزونه‌های مرورگر مورد استفاده قرار گیرد تا کاربران بتوانند مطابقت گواهینامه‌ها با هش‌ها را بررسی کنند و از معتبر بودن محتوا مطلع شوند. تائید اصالت و اعتبار در ابتدا فقط از طریق مشارکت مایکروسافت با بنیاد هوش مصنوعی که یک شرکت هوش مصنوعی آمریکایی است در دسترس خواهد بود.

این شرکت در حال معرفی طرح (Reality Defender 2020 (RD2020 است که در اختیار سازمان‌های تبلیغاتی و خبری قرار خواهد گرفت. قرار است تعدادی از شرکت‌های رسانه‌ای، از جمله بی‌بی‌سی، رادیو کانادا و نیویورک‌تایمز، فناوری احراز اصالت را آزمایش می‌کنند.

مایکروسافت در مورد امکان شناسایی دیپ فیک می‌گوید امیدوار است که طی چند ماه آینده با تعداد بیشتری از شرکت‌های فناوری، ناشران اخبار و شرکت‌های رسانه‌های اجتماعی همکاری کند.

در حال حاضر دیپ فیک بیشتر برای مقاصد غیراخلاقی استفاده می‌شود. در ژوئن ۲۰۲۰، تحقیقات نشان داد که ۹۶ درصد از کل ویدیوهای دیپ فیک در زمینه فیلم‌های مستهجن است. با این‌حال، گزارشی از دانشگاه کالج لندن در ماه گذشته نشان داد که دیپ فیک خطرناک‌ترین نوع از جرائم اینترنتی است. این به این دلیل است که تشخیص آن‌ها بسیار دشوار است و می‌تواند برای اهداف مختلف شیطانی مانند باج‌خواهی یا کلاهبرداری مورد استفاده قرار گیرد.

دکتر متیو کالدول، نویسنده این تحقیق می‌گوید: مردم در حال حاضر بخش زیادی از زندگی خود را به‌صورت آنلاین به پیش می‌برند و این فعالیت آنلاین می‌تواند برای آن‌ها شهرت و اعتبار بیاورد یا آن را نابود سازد. چنین محیط آنلاینی که داده‌ها دارایی عظیمی هستند و اطلاعات از قدرت بالایی برخوردار هستند، برای فعالیت‌های جنایی مبتنی بر هوش مصنوعی بستر مناسبی است.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید.

میانگین امتیاز / ۵. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]