40 گام به سوی آینده‌ای هوشمند - مجموعه وبینارهای رایگان در حوزه هوش مصنوعی
Filter by دسته‌ها
chatGTP
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
تیتر یک
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 دیپ فیک جدی ترین تهدید در زمینه جرائم مرتبط با هوش مصنوعی است

دیپ فیک جدی ترین تهدید در زمینه جرائم مرتبط با هوش مصنوعی است

 

محققان دانشگاه کالج لندن یک رتبه‌بندی از آنچه کارشناسان معتقدند جدی‌ترین تهدیدات جرایم مرتبط با هوش مصنوعی هستند منتشر کردند. در ابتدا محققان فهرستی شامل 20 روش پیش‌بینی شده مرتبط با هوش مصنوعی که احتمالا در 15 سال آینده توسط مجرمان استفاده می‌شود را ایجاد کردند سپس از 31 کارشناس خواسته شد تا آنها را با توجه به شدتی که ممکن است داشته باشند رتبه‌بندی کنند. دیپ فیک – تصاویر، فیلم‌ها و مقالات ایجاد شده توسط هوش مصنوعی – در صدر این لیست به عنوان جدی ترین تهدید قرار گرفت.

یک قلمرو جدید و خطرناک

با توجه به مشکلات به وجود آمده در مورد کمپین‌های ضد اطلاعات، جای تعجب نیست که دیپ فیک رتبه اول را به خود اختصاص داده باشد. امروزه بیشترین محتوای جعلی احتمالا توسط انسان‌ها ایجاد می‌شود، مانند کسانی که در ” troll farms” روسیه کار می‌کنند. زمان می‌برد تا کمپین‌های ضداطلاعاتی که توسط توسط انسان تولید‌شده به یک استاندارد قانع‌کننده دست یابند. آنها غالباً دارای الگویی هستند که ردیابی‌شان را آسان‌تر می‌کند. امروز تولید محتوای جعلی برای تأثیرگذاری در مواردی مانند آرای انتخاباتی و افکار عمومی ، وارد قلمرو جدید و خطرناکی شده است
یکی از معروف ترین پرونده های مربوط به دیپ فیک به نانسی پلوسی رئیس نمایندگان مجلس آمریکا برمی‌گردد که در آن با استفاده از فناوری دیپ‌ فیک سخنرانی این نماینده را به گونه‌ای نشان داده‌اند که او در حالت غیر عادی است. ویدیوی مربوط به نانسی پلوسی ناخوشایند بود اما به احتمال زیاد هدف آن سرگرمی بوده است نه تخریب. با این وجود این یک هشدار اولیه برای چگونگی استفاده از چنین جعلی‌هایی برای آسیب‌زدن به شهرت یا مواردی بدتر است.
دیپ فیک همچنین دارای پتانسیل آشکاری برای استفاده در اهداف کلاهبرداری است. با استفاده از این فناوری می‌توان تظاهر به شخصیت دیگری کرد و از آن برای دسترسی به مواردی مانند حساب‌های بانکی و اطلاعات حساس استفاده کرد.
دیپ‌فیک همچنین می‌تواند برای باج‌خواهی مورد استفاده قرار گیرد. اگرچه پیش از این یادگیری عمیق برای قرار دادن چهره افراد مشهور بر روی دیگر افراد مورد استفاده قرار گرفته است اما وقتی پای جعل و باج‌خواهی درمیان باشد می‌توان از این فناوری برای اخاذی در ازای منتشر نکردن صحنه‌های نامناسب استفاده کرد.
دکتر متیو کالدول، استاد علوم رایانه از UCL می‌گوید: “اکنون مردم بخش‌های زیادی از فعالیت‌های خود را بصورت آنلاین انجام می‌دهند و این فعالیت‌ها می‌تواند باعث به وجود آوردن شهرت شود یا آن را نابود سازد.” او می‌گوید: در فضای مجازی داده‌ها دارای قدرت زیادی هستند و این زمینه را برای فعالیت‌های مجرمانه مبتنی بر هوش مصنوعی به وجود می‌آورد. اکنون، به راحتی می‌توان فهمید که چرا کارشناسان تا این اندازه نگران دیپ‌فیک هستند.

سایر جرائم مرتبط با هوش مصنوعی

چهار مورد دیگر از تهدیدات جرایم مرتبط با هوش مصنوعی وجود دارد که توسط محققان مشخص شده است: استفاده از اتومبیل‌های خودران به عنوان سلاح، فیشینگ، جمع‌آوری اطلاعات برای باج‌گیری و اختلال در سیستم‌های تحت کنترل هوش مصنوعی.

پروفسور لوئیس گریفی استاد علوم رایانه UCL ، می‌گوید: “با پیشرفت فناوری‌های مبتنی بر هوش مصنوعی، توانایی بالقوه آن‌ها برای سوء استفاده مجرمانه نیز افزایش می‌باید. برای آماده‌سازی دربرابر تهدیدات احتمالی هوش مصنوعی، ما باید این تهدیدات و چگونه تاثیر آنها بر زندگی‌مان را شناسایی کنیم.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]