دیپ فیک جدی ترین تهدید در زمینه جرائم مرتبط با هوش مصنوعی است
محققان دانشگاه کالج لندن یک رتبهبندی از آنچه کارشناسان معتقدند جدیترین تهدیدات جرایم مرتبط با هوش مصنوعی هستند منتشر کردند. در ابتدا محققان فهرستی شامل 20 روش پیشبینی شده مرتبط با هوش مصنوعی که احتمالا در 15 سال آینده توسط مجرمان استفاده میشود را ایجاد کردند سپس از 31 کارشناس خواسته شد تا آنها را با توجه به شدتی که ممکن است داشته باشند رتبهبندی کنند. دیپ فیک – تصاویر، فیلمها و مقالات ایجاد شده توسط هوش مصنوعی – در صدر این لیست به عنوان جدی ترین تهدید قرار گرفت.
یک قلمرو جدید و خطرناک
با توجه به مشکلات به وجود آمده در مورد کمپینهای ضد اطلاعات، جای تعجب نیست که دیپ فیک رتبه اول را به خود اختصاص داده باشد. امروزه بیشترین محتوای جعلی احتمالا توسط انسانها ایجاد میشود، مانند کسانی که در ” troll farms” روسیه کار میکنند. زمان میبرد تا کمپینهای ضداطلاعاتی که توسط توسط انسان تولیدشده به یک استاندارد قانعکننده دست یابند. آنها غالباً دارای الگویی هستند که ردیابیشان را آسانتر میکند. امروز تولید محتوای جعلی برای تأثیرگذاری در مواردی مانند آرای انتخاباتی و افکار عمومی ، وارد قلمرو جدید و خطرناکی شده است
یکی از معروف ترین پرونده های مربوط به دیپ فیک به نانسی پلوسی رئیس نمایندگان مجلس آمریکا برمیگردد که در آن با استفاده از فناوری دیپ فیک سخنرانی این نماینده را به گونهای نشان دادهاند که او در حالت غیر عادی است. ویدیوی مربوط به نانسی پلوسی ناخوشایند بود اما به احتمال زیاد هدف آن سرگرمی بوده است نه تخریب. با این وجود این یک هشدار اولیه برای چگونگی استفاده از چنین جعلیهایی برای آسیبزدن به شهرت یا مواردی بدتر است.
دیپ فیک همچنین دارای پتانسیل آشکاری برای استفاده در اهداف کلاهبرداری است. با استفاده از این فناوری میتوان تظاهر به شخصیت دیگری کرد و از آن برای دسترسی به مواردی مانند حسابهای بانکی و اطلاعات حساس استفاده کرد.
دیپفیک همچنین میتواند برای باجخواهی مورد استفاده قرار گیرد. اگرچه پیش از این یادگیری عمیق برای قرار دادن چهره افراد مشهور بر روی دیگر افراد مورد استفاده قرار گرفته است اما وقتی پای جعل و باجخواهی درمیان باشد میتوان از این فناوری برای اخاذی در ازای منتشر نکردن صحنههای نامناسب استفاده کرد.
دکتر متیو کالدول، استاد علوم رایانه از UCL میگوید: “اکنون مردم بخشهای زیادی از فعالیتهای خود را بصورت آنلاین انجام میدهند و این فعالیتها میتواند باعث به وجود آوردن شهرت شود یا آن را نابود سازد.” او میگوید: در فضای مجازی دادهها دارای قدرت زیادی هستند و این زمینه را برای فعالیتهای مجرمانه مبتنی بر هوش مصنوعی به وجود میآورد. اکنون، به راحتی میتوان فهمید که چرا کارشناسان تا این اندازه نگران دیپفیک هستند.
سایر جرائم مرتبط با هوش مصنوعی
چهار مورد دیگر از تهدیدات جرایم مرتبط با هوش مصنوعی وجود دارد که توسط محققان مشخص شده است: استفاده از اتومبیلهای خودران به عنوان سلاح، فیشینگ، جمعآوری اطلاعات برای باجگیری و اختلال در سیستمهای تحت کنترل هوش مصنوعی.
پروفسور لوئیس گریفی استاد علوم رایانه UCL ، میگوید: “با پیشرفت فناوریهای مبتنی بر هوش مصنوعی، توانایی بالقوه آنها برای سوء استفاده مجرمانه نیز افزایش میباید. برای آمادهسازی دربرابر تهدیدات احتمالی هوش مصنوعی، ما باید این تهدیدات و چگونه تاثیر آنها بر زندگیمان را شناسایی کنیم.