برترین متخصصین

از سراسر دنیا

مجموعه وبینارهای مدل‌های بزرگ زبانی (LLM)

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
گزارش
مصاحبه
  تهدیدی مداوم با حداقل محافظت

کلاهبرداری‌های صوتی با هوش مصنوعی:

 تهدیدی مداوم با حداقل محافظت

زمان مطالعه: 3 دقیقه

با تنها چند ثانیه از صدای یک فرد، برنامه‌های هوش مصنوعی برای شبیه‌سازی صدا می‌توانند نسخه‌ای تقریباً غیر قابل‌تشخیص از صدای اصلی ایجاد کنند که برای گوش انسان کاملاً طبیعی به نظر می‌رسد.

این فناوری می‌تواند مزایای مفیدی برای دسترس‌پذیری و خودکارسازی داشته باشد، اما همچنین می‌تواند ابزاری آسان برای کلاهبرداران باشد. با وجود این تهدید، بسیاری از این فناوری‌ها تقریباً بدون هیچ‌گونه محدودیتی عرضه شده‌اند و می‌توان به‌راحتی از سد تدابیر امنیتی آن‌ها عبور کرد.

کلاهبرداری مادربزرگ

کلاهبرداری معروف به «کلاهبرداری مادربزرگ» (Granny Scam) که در آن کلاهبرداران با استفاده از فناوری شبیه‌سازی صدا خود را به‌جای یکی از عزیزان فرد قربانی جا می‌زنند، پدیده‌ای تازه نیست. 

«راهول سود»، مدیر ارشد محصول در شرکت امنیتی Pindrop، توضیح می‌دهد که سرعت وقوع این کلاهبرداری‌ها و میزان باورپذیری صداها به‌شدت افزایش‌یافته است. او همچنین اشاره می‌کند که تنها افراد عادی در معرض این خطر نیستند. شرکت‌ها و سازمان‌ها نیز با تهدیدات سایبری جدی از جمله کلاهبرداری‌های تصاحب حساب کاربری در مراکز تماس و جعل هویت در فرایندهای استخدامی مواجه‌اند.

مکانیزم امنیتی

 یک تحقیق جدید که توسط Consumer Reports منتشر شد، نشان داد که بسیاری از محصولات پیشرو در زمینه شبیه‌سازی صدا فاقد تدابیر امنیتی قوی برای جلوگیری از سوءاستفاده یا کلاهبرداری هستند.

از میان ۶ محصول بررسی‌شده، ۴ مورد به محققان اجازه دادند که به‌راحتی و تنها با استفاده از فایل‌های صوتی در دسترس عموم، بدون هیچ مکانیسم فنی برای اطمینان از دریافت رضایت گوینده یا محدود کردن شبیه‌سازی صدا به خود کاربر، صدای جعلی ایجاد کنند. همچنین در ۴ مورد از این خدمات، کاربران می‌توانستند به‌صورت رایگان صدای سفارشی خود را ایجاد کنند.

آمار کلاهبرداری‌های صوتی در سال ۲۰۲۴

 درحالی‌که کمیسیون تجارت فدرال (Federal Trade Commission – FTC) آمار دقیقی از کلاهبرداری‌های مبتنی بر تقلید صدا ارائه نکرده است، اما بیش از ۸۴۵,۰۰۰ مورد کلاهبرداری جعل هویت در ایالات متحده در سال ۲۰۲۴ گزارش شده است.

جنبه نگران‌کننده این موضوع آن است که کلاهبرداری‌ها و جعل هویت از طریق تقلید صدا و فناوری دیپ‌فیک (Deepfake)، اغلب متوجه افراد مشهور، مدیران عامل شرکت‌ها و سیاست‌مداران می‌شود.

در انتخابات مقدماتی ایالت نیوهمپشایر، صدای جو بایدن (Joe Biden) با استفاده از هوش مصنوعی در تماس‌های تبلیغاتی جعلی به کار رفت تا رأی‌دهندگان را از شرکت در انتخابات دلسرد کند. در پی این ماجرا، کمیسیون ارتباطات فدرال (FCC) به‌اتفاق آرا، استفاده از صداهای جعلی تولیدشده با هوش مصنوعی در تماس‌های تبلیغاتی کلاهبردارانه را ممنوع کرد.

در ژوئیه ۲۰۲۴، ایلان ماسک (Elon Musk) یک تبلیغ جعلی از کامالا هریس (Kamala Harris) را به اشتراک گذاشت که حاوی صدای جعلیِ شبیه به معاون وقت رئیس‌جمهور آمریکا بود. این موضوع بحثی جدید را ایجاد کرد که آیا چنین محتواهایی صرفاً «طنز» هستند یا یک تهدید جدی از سوی هوش مصنوعی به شمار می‌آیند؟

کلاهبرداری‌های صوتی

«راهول سود» هشدار می‌دهد که کلاهبرداری‌های صوتی در پلتفرم‌های رسانه‌های اجتماعی رو به افزایش است و اضافه می‌کند که: «فناوری شبیه‌سازی صدا اکنون بسیار پیشرفته‌تر و در دسترس‌تر از فناوری شبیه‌سازی چهره است.»

بسیاری از سرویس‌های تجاری که شرکت Pindrop ردیابی می‌کند، به طور باورنکردنی برای استفاده آسان هستند. راهول سود تأکید می‌کند که کیفیت شبیه‌سازی صدا به مرحله‌ای رسیده است که دیگر نمی‌توان آن را از صدای واقعی تشخیص داد، به این معنی که گوش انسان دیگر قادر به تمایز بین صدای طبیعی و صدای تولیدشده توسط ماشین نیست.

در سال ۲۰۲۳، «گری شیلدهورن» (Gary Schildhorn) وکیل اهل فیلادلفیا، در جلسه‌ای با کمیته سنای ایالات متحده توضیح داد که چگونه تقریباً قربانی یک کلاهبرداری از طریق تقلید صدا شده بود.

او تماسی دریافت کرد که به نظر می‌رسید از طرف پسرش باشد. صدایی پر از وحشت و گریه به او گفت که در یک تصادف رانندگی با یک زن باردار دخیل بوده و اکنون در زندان است. در ادامه، کلاهبرداران با اجرای یک طرح چندمرحله‌ای از او خواستند پول را به حساب وکیل پسرش واریز کند.

شیلدهورن گفت: «من یک پدرم و هم یک وکیل، وقتی شنیدم که پسرم در دردسر افتاده و به یک زن باردار آسیب‌زده، سریعاً دست به کار شدم.» البته در آخرین لحظه، پسر واقعی‌اش با او تماس گرفت و مشخص شد که هیچ تصادفی رخ نداده و او در زندان نیست.

ارزیابی جدید Consumer Reports چندین روش برای محدود کردن سوءاستفاده از فناوری تقلید صدا پیشنهاد می‌کند که شامل ملزم کردن کاربران به ارائه رضایت صوتی منحصربه‌فرد قبل از ایجاد صدای شبیه‌سازی‌شده و قرار دادن واترمارک روی فایل‌های صوتی تولیدشده با هوش مصنوعی می‌شود. با این روش‌ها می‌توان جعلی بودن صداها را تشخیص داد.

از سوی دیگر، کارشناسان گفته‌اند که افراد هم باید در نحوه به اشتراک گذاشتن صدای خود در فضای آنلاین تجدید نظر کنند. مثلاً بهتر است در تنظیم پیام‌های صوتی شخصی (مثل پیام‌گیر تلفن) بیشتر دقت کنند.

البته «استیو گربمن» (Steve Grobman)، مدیر ارشد فناوری شرکت McAfee، معتقد است که در دنیای دیجیتال امروزی، پاک کردن کامل صدای افراد از اینترنت غیرواقع‌بینانه است.

گربمن پیشنهاد می‌دهد که داشتن یک دیدگاه شکاکانه و آگاهانه در مواجهه با تماس‌های مشکوک ضروری است. او توصیه می‌کند که اعضای خانواده یک «کلمه رمز» مشخص کنند تا هنگام تماس‌های حساس، هویت فرد تماس‌گیرنده را تأیید کنند.

استیو گربمن در پایان تأکید می‌کند که این فناوری علاوه بر خطرات، مزایای قابل‌توجهی مانند ایجاد پل ارتباطی میان زبان‌های مختلف، امکان ایجاد صدا برای افراد ناتوان در این زمینه (کسانی که نمی‌توانند صحبت کنند) و صرفه‌جویی در زمان و منابع را به همراه دارد.

او می‌گوید: «در بسیاری از موارد، باید بپذیریم که صدای ما در اینترنت به‌عنوان بخشی از هزینه‌های حضور در دنیای دیجیتال ۲۰۲۵ محسوب می‌شود.»

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]