Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 دگردیسی تهدیدات سایبری ایران در ۱۴۰۳؛ WolfGPT و FraudGPT در زیرزمین ایران

آیا هکرها دیگر نیازی به برنامه‌نویسی ندارند؟

دگردیسی تهدیدات سایبری ایران در ۱۴۰۳؛ WolfGPT و FraudGPT در زیرزمین ایران

زمان مطالعه: 3 دقیقه

بر اساس داده‌های گزارش گراف، هوش مصنوعی مولد (GenAI) در سال ۱۴۰۳ زیرزمین سایبری ایران را تسلیح کرده و تهدیدات را متحول ساخت. ظهور ابزارهایی چون WolfGPT و LLMJacking، سطح جدیدی از اتوماسیون، تولید کدهای مخرب و فریب‌های پیشرفته (مانند BEC) را در فضای دیجیتال به وجود آورده است.

تحولات سایبری ایران در سال ۱۴۰۳ از یک تغییر ساده فراتر رفت و به یک دگرگونی پارادایم تبدیل شد. همانطور که داده‌های دقیق و تحلیل‌های عمیق گزارش سالانه گراف نشان می‌دهد، هوش مصنوعی مولد (GenAI) اکنون به اصلی‌ترین شتاب‌دهنده جرایم و حملات سایبری در منطقه تبدیل شده است. این فناوری، که شامل مدل‌های زبان بزرگ (LLM) نیز می‌شود، موانع سنتی را برای مهاجمان از میان برداشته و با اتوماسیون فرآیندهای پیچیده و تقویت بعد فریب، نه تنها کار مجرمان سایبری را ساده‌تر کرده، بلکه امکان ظهور تهدیداتی را فراهم آورده که به‌طور مستقیم زیرساخت‌های فناوری و مالی کشور را هدف قرار می‌دهند.

تسلیح زیرزمین: وقتی GenAI کد مخرب می‌نویسد

هوش مصنوعی در نقش یک کاتالیزور قدرتمند، فرآیند حمله را به‌طور چشمگیری سریع‌تر، ارزان‌تر و در مقیاس بزرگتر ممکن کرده است. این ابزارها موانع ورود بردار‌های حمله پیشرفته را کاهش داده و وظایف شناسایی و جمع‌آوری اطلاعات را به شدت ساده‌سازی کرده‌اند.

WolfGPT و GhostGPT: ابزارهای جدید هکرهای ایرانی

علاقه به استفاده از GenAI در محافل زیرزمینی دیجیتال در طول سال ۱۴۰۳ به اوج رسید. در این بازارهای تاریک، مدل‌های زبان بزرگ مخرب اختصاصی معرفی و استفاده می‌شوند. ابزارهایی چونWolfGPT، WormGPT، FraudGPT، EscapeGPT و GhostGPT که به‌طور خاص برای ساخت کمپین‌های فیشینگ شخصی‌سازی‌شده و وب‌سایت‌های جعلی طراحی شده‌اند، اکنون در دسترس مجرمان هستند. گزارش‌ها نشان می‌دهد که حتی آموزش‌هایی برای تولید کدهای مخرب در این انجمن‌ها ارائه شده است.

تولید رزومه جعلی برای نفوذ: تاکتیک جدید گروه‌های باج‌افزاری

استفاده از GenAI در تاکتیک‌های نفوذ اولیه، دیگر یک فرضیه نیست. گروه تهدید Jeonsas (Famous Chollima) از GenAI برای اتوماسیون فرآیندهای نفوذ اولیه خود بهره برده است. شگرد آن‌ها تولید رزومه‌ها و نامه‌های پوششی (Cover Letters)  با کیفیت بالا برای برنامه‌های شغلی از راه دور (Freelancer) بود. این فریب، به آن‌ها کمک کرد تا به شبکه‌های سازمانی دسترسی یافته و داده‌های حساس را جمع‌آوری کنند. همچنین گروه باج‌افزاری Dragon با همکاری گروه Stormous از مدل‌های GPT برای تولید دستورات شل (Shell Commands) مورد نیاز برای اجرای حملات خود استفاده کرده‌اند.

حمله به مغز متفکر:  LLMJacking  چیست؟

در سال ۱۴۰۳ (۲۰۲۴)، دامنه تهدیدات GenAI از هدف قرار دادن کاربران نهایی فراتر رفت و خود زیرساخت هوش مصنوعی را در کانون توجه قرار داد.

LLMJacking  و تزریق پرامپت

LLMJacking (سرقت مدل زبان بزرگ): این تهدید شامل تلاش برای سرقت اطلاعات حساس و داخلی (مانند داده‌های آموزشی و پاسخ‌های غیرمجاز) از مدل‌های زبان بزرگ (LLM) است. با افزایش تقاضا برای مدل‌هایی که دسترسی به داده‌های محدود را دارند، خطر استخراج غیرمجاز اطلاعات به شدت بالا رفته است.

تزریق پرامپت  (Prompt Injection): این تکنیک برجسته سال ۲۰۲۴ که هدف آن دور زدن دستورالعمل‌های امنیتی مدل‌های LLM است. مهاجم با وارد کردن دستورات خاص، مدل را وادار به تولید خروجی‌های نامطلوب، از جمله تولید کدهای مخرب یا محتوای فیشینگ می‌کند.

فیشینگ بومی: مدل‌های هوش مصنوعی چگونه موانع زبانی را شکستند؟

GenAI با تقویت توانایی عاملان تهدید در تولید محتوای مهندسی اجتماعی با کیفیت بالا، موانع زبانی را از میان برداشته و به مهاجمان اجازه داده تا پیام‌هایی را به‌صورت بومی و با دقت بسیار بالا و به زبان مادری قربانیان خود تولید کنند. این امر موفقیت حملات فیشینگ و کلاهبرداری‌های متنی را به شدت افزایش داده است.

علاوه بر این، در حوزه مالی شاهد تشدید تهدیدات زیر بوده‌ایم:

سازش ایمیل تجاری (BEC) پیشرفته و دیپ‌فیک:  GenAI  حملات BEC (Business Email Compromise) را تشدید کرده و مجرمان سایبری در اوایل ۲۰۲۴ از مدل‌های GenAI برای تولید پیام‌های قانع‌کننده در حملات BEC استفاده کردند. زیان‌های جهانی ناشی از BEC به ۲۵.۶ میلیارد دلار رسیده است. همچنین، GenAI  در ساخت ویدیوها و داده‌های صوتی دیپ‌فیک برای فریب قربانیان مالی استفاده شده است.

لزوم تغییر استراتژی‌های دفاعی

همانطور که مجمع جهانی اقتصاد (WEF) هشدار داده است، دو سوم متخصصان پیش‌بینی می‌کنند که هوش مصنوعی در سال پیش رو بیشترین تأثیر را بر امنیت سایبری خواهد داشت.

گزارش سالانه گراف به وضوح نشان می‌دهد که هوش مصنوعی در سال‌های ۱۴۰۲ و ۱۴۰۳ صرفاً یک ابزار کمکی نبود، بلکه عامل اصلی تغییر پارادایم در تهدیدات سایبری ایران بوده است. این فناوری، با تسریع، تسهیل و تقویت حملات فریبنده، سازمان‌ها را ملزم می‌کند تا سیاست‌های امنیتی و دفاعی خود را به‌طور بنیادی تغییر دهند.

تهدیدات نوظهوری مانند LLMJacking، تزریق پرامپت و BEC پیشرفته نیازمند تمرکز بر دفاع در برابر فریب‌های مبتنی بر GenAI هستند. در نبرد امنیتی آینده، سرعت اتوماسیون و کیفیت فریب، تعیین‌کننده بقا در فضای دیجیتال خواهد بود و دفاع در برابر خروجی‌های هوش مصنوعی، مهم‌ترین وظیفه متخصصان امنیت سایبری خواهد بود.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]