
کلاهبرداریهای صوتی با هوش مصنوعی:
تهدیدی مداوم با حداقل محافظت
با تنها چند ثانیه از صدای یک فرد، برنامههای هوش مصنوعی برای شبیهسازی صدا میتوانند نسخهای تقریباً غیر قابلتشخیص از صدای اصلی ایجاد کنند که برای گوش انسان کاملاً طبیعی به نظر میرسد.
این فناوری میتواند مزایای مفیدی برای دسترسپذیری و خودکارسازی داشته باشد، اما همچنین میتواند ابزاری آسان برای کلاهبرداران باشد. با وجود این تهدید، بسیاری از این فناوریها تقریباً بدون هیچگونه محدودیتی عرضه شدهاند و میتوان بهراحتی از سد تدابیر امنیتی آنها عبور کرد.
کلاهبرداری مادربزرگ
کلاهبرداری معروف به «کلاهبرداری مادربزرگ» (Granny Scam) که در آن کلاهبرداران با استفاده از فناوری شبیهسازی صدا خود را بهجای یکی از عزیزان فرد قربانی جا میزنند، پدیدهای تازه نیست.
«راهول سود»، مدیر ارشد محصول در شرکت امنیتی Pindrop، توضیح میدهد که سرعت وقوع این کلاهبرداریها و میزان باورپذیری صداها بهشدت افزایشیافته است. او همچنین اشاره میکند که تنها افراد عادی در معرض این خطر نیستند. شرکتها و سازمانها نیز با تهدیدات سایبری جدی از جمله کلاهبرداریهای تصاحب حساب کاربری در مراکز تماس و جعل هویت در فرایندهای استخدامی مواجهاند.
مکانیزم امنیتی
یک تحقیق جدید که توسط Consumer Reports منتشر شد، نشان داد که بسیاری از محصولات پیشرو در زمینه شبیهسازی صدا فاقد تدابیر امنیتی قوی برای جلوگیری از سوءاستفاده یا کلاهبرداری هستند.
از میان ۶ محصول بررسیشده، ۴ مورد به محققان اجازه دادند که بهراحتی و تنها با استفاده از فایلهای صوتی در دسترس عموم، بدون هیچ مکانیسم فنی برای اطمینان از دریافت رضایت گوینده یا محدود کردن شبیهسازی صدا به خود کاربر، صدای جعلی ایجاد کنند. همچنین در ۴ مورد از این خدمات، کاربران میتوانستند بهصورت رایگان صدای سفارشی خود را ایجاد کنند.
آمار کلاهبرداریهای صوتی در سال ۲۰۲۴
درحالیکه کمیسیون تجارت فدرال (Federal Trade Commission – FTC) آمار دقیقی از کلاهبرداریهای مبتنی بر تقلید صدا ارائه نکرده است، اما بیش از ۸۴۵,۰۰۰ مورد کلاهبرداری جعل هویت در ایالات متحده در سال ۲۰۲۴ گزارش شده است.
جنبه نگرانکننده این موضوع آن است که کلاهبرداریها و جعل هویت از طریق تقلید صدا و فناوری دیپفیک (Deepfake)، اغلب متوجه افراد مشهور، مدیران عامل شرکتها و سیاستمداران میشود.
در انتخابات مقدماتی ایالت نیوهمپشایر، صدای جو بایدن (Joe Biden) با استفاده از هوش مصنوعی در تماسهای تبلیغاتی جعلی به کار رفت تا رأیدهندگان را از شرکت در انتخابات دلسرد کند. در پی این ماجرا، کمیسیون ارتباطات فدرال (FCC) بهاتفاق آرا، استفاده از صداهای جعلی تولیدشده با هوش مصنوعی در تماسهای تبلیغاتی کلاهبردارانه را ممنوع کرد.
در ژوئیه ۲۰۲۴، ایلان ماسک (Elon Musk) یک تبلیغ جعلی از کامالا هریس (Kamala Harris) را به اشتراک گذاشت که حاوی صدای جعلیِ شبیه به معاون وقت رئیسجمهور آمریکا بود. این موضوع بحثی جدید را ایجاد کرد که آیا چنین محتواهایی صرفاً «طنز» هستند یا یک تهدید جدی از سوی هوش مصنوعی به شمار میآیند؟
کلاهبرداریهای صوتی
«راهول سود» هشدار میدهد که کلاهبرداریهای صوتی در پلتفرمهای رسانههای اجتماعی رو به افزایش است و اضافه میکند که: «فناوری شبیهسازی صدا اکنون بسیار پیشرفتهتر و در دسترستر از فناوری شبیهسازی چهره است.»
بسیاری از سرویسهای تجاری که شرکت Pindrop ردیابی میکند، به طور باورنکردنی برای استفاده آسان هستند. راهول سود تأکید میکند که کیفیت شبیهسازی صدا به مرحلهای رسیده است که دیگر نمیتوان آن را از صدای واقعی تشخیص داد، به این معنی که گوش انسان دیگر قادر به تمایز بین صدای طبیعی و صدای تولیدشده توسط ماشین نیست.
در سال ۲۰۲۳، «گری شیلدهورن» (Gary Schildhorn) وکیل اهل فیلادلفیا، در جلسهای با کمیته سنای ایالات متحده توضیح داد که چگونه تقریباً قربانی یک کلاهبرداری از طریق تقلید صدا شده بود.
او تماسی دریافت کرد که به نظر میرسید از طرف پسرش باشد. صدایی پر از وحشت و گریه به او گفت که در یک تصادف رانندگی با یک زن باردار دخیل بوده و اکنون در زندان است. در ادامه، کلاهبرداران با اجرای یک طرح چندمرحلهای از او خواستند پول را به حساب وکیل پسرش واریز کند.
شیلدهورن گفت: «من یک پدرم و هم یک وکیل، وقتی شنیدم که پسرم در دردسر افتاده و به یک زن باردار آسیبزده، سریعاً دست به کار شدم.» البته در آخرین لحظه، پسر واقعیاش با او تماس گرفت و مشخص شد که هیچ تصادفی رخ نداده و او در زندان نیست.
ارزیابی جدید Consumer Reports چندین روش برای محدود کردن سوءاستفاده از فناوری تقلید صدا پیشنهاد میکند که شامل ملزم کردن کاربران به ارائه رضایت صوتی منحصربهفرد قبل از ایجاد صدای شبیهسازیشده و قرار دادن واترمارک روی فایلهای صوتی تولیدشده با هوش مصنوعی میشود. با این روشها میتوان جعلی بودن صداها را تشخیص داد.
از سوی دیگر، کارشناسان گفتهاند که افراد هم باید در نحوه به اشتراک گذاشتن صدای خود در فضای آنلاین تجدید نظر کنند. مثلاً بهتر است در تنظیم پیامهای صوتی شخصی (مثل پیامگیر تلفن) بیشتر دقت کنند.
البته «استیو گربمن» (Steve Grobman)، مدیر ارشد فناوری شرکت McAfee، معتقد است که در دنیای دیجیتال امروزی، پاک کردن کامل صدای افراد از اینترنت غیرواقعبینانه است.
گربمن پیشنهاد میدهد که داشتن یک دیدگاه شکاکانه و آگاهانه در مواجهه با تماسهای مشکوک ضروری است. او توصیه میکند که اعضای خانواده یک «کلمه رمز» مشخص کنند تا هنگام تماسهای حساس، هویت فرد تماسگیرنده را تأیید کنند.
استیو گربمن در پایان تأکید میکند که این فناوری علاوه بر خطرات، مزایای قابلتوجهی مانند ایجاد پل ارتباطی میان زبانهای مختلف، امکان ایجاد صدا برای افراد ناتوان در این زمینه (کسانی که نمیتوانند صحبت کنند) و صرفهجویی در زمان و منابع را به همراه دارد.
او میگوید: «در بسیاری از موارد، باید بپذیریم که صدای ما در اینترنت بهعنوان بخشی از هزینههای حضور در دنیای دیجیتال ۲۰۲۵ محسوب میشود.»