Filter by دسته‌ها
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 3 روش استفاده مجرمان از هوش مصنوعی در حملات امنیت سایبری

3 روش استفاده مجرمان از هوش مصنوعی در حملات امنیت سایبری

سه متخصص امنیت سایبری توضیح دادند که چطور هوش مصنوعی و یادگیری ماشینی می‌تواند برای فرار از امنیت سایبری استفاده شود و نفوذها در طول اجلاس‌‎های «اتحاد امنیت سایبری ملی» و کارگزاری بورس «نزداک» را سریع‌‎تر و تاثیرگذارتر کند.

کلوین کولمن، مدیر اجرایی NCSA () میزبان این گفتگو درباره بخشی از امنیت مفید است: تاثیرگذاری و سنجش تغییرات در رفتار اتحاد امنیت سایبری ملی National Cyber Security Alliance انسانی، سه‎ شنبه، 6 اکتبر.

الهام طبسی، رئیس کارکنان لابراتوار فناوری اطلاعات موسسه ملی استانداردها و فناوری و یکی از اعضای هیئت مدیره «هوش مصنوعی و یادگیری ماشین امنیت سایبری Artificial Intelligence and Machine Learning for Cybersecurity»: بخش خوب، بد، زشت. مهاجمان می‌توانند از هوش مصنوعی برای نفوذ به ردیابی‌ها استفاده کنند و جایی پنهان شوند که نتوان آن‌ها را پیدا کرد و به طور خودکار با سیستم مدافع هماهنگ شوند.

تیم بندس، رئیس امنیت اطلاعات دیجیتال گاردین، می‌گوید امنیت سایبری همیشه نیاز به ذهن انسانی دارد تا دفاع‌های قدرتمند بسازد و حملات را متوقف کند: هوش مصنوعی دستیار است و قهرمانان واقعی آنالیزورهای امنیتی و شکارچیان تهدید هستند.

امنیت سایبری

در زیر به 3 روش که در آن‌ها از هوش مصنوعی و یادگیری ماشینی برای حملات امنیت سایبری استفاده می‌شود، اشاره شده است:

مسموم کردن داده‌ها

طبسی می‎گوید مجرمان گاهی داده‌هایی که برای تمرین دادن مدل‌های یادگیری ماشینی استفاده می‌شود را هدف قرار می‌دهند. مسموم کردن داده‌ها طراحی شده برای دستکاری کردن مجموعه داده تمرینی و کنترل کردن نحوه پیش‌بینی یک مدل آموزش دیده برای حقه زدن به آن تا وظیفه‌اش را به طور نادرست انجام دهد. مثل تغییر دادن برچسب ایمیل‌های هرز به محتوای امن.

دو نوع مسموم کردن داده وجود دارد: حملاتی که در دسترس بودن الگوریتم‌های یادگیری ماشینی را هدف قرار می‌دهند و حملاتی که درستی آن‌ها را هدف می‌گیرد. تحقیقات نشان داده که مسموم کردن 3% از مجموعه داده‌ها باعث 11% افت دقت می‌شود.

با حملات سری، یک متجاوز می‎تواند ورودی‌ای به یک الگوریتم اضافه کند که طراح مدل چیزی درباره‎اش نداند. متجاوز از این حمله سری استفاده می‌کند تا سیستم یادگیری ماشینی را دچار اشتباه در طبقه‌بندی کند تا یک زنجیره خاص را مطلوب و بی‌خطر نشان دهد؛ در حالی که در واقعیت حاوی داده‌های مخرب است.

طبسی می‌گوید تکنیک مصموم کردن داده‌ها می‌تواند از یک قالب به دیگری منتقل شود: داده برای یادگیری ماشینی حکم خون و تغذیه را دارد و از طرفی به اندازه خود قالب باید به داده‌هایی که برای تمرین دادن قالب‌ها استفاده می‌کنیم، اهمیت دهیم.

به اعتقاد طبسی صنعت نیاز به استانداردها و الگوهایی دارد تا بتواند کیفیت داده را تضمین دهد و این که موسسه ملی استاندارد و فناوری  در حال کار کردن روی الگوهایی برای هوش مصنوعی قابل اعتماد شامل الگوهای سطح بالا و نیازهای فنی است تا بتواند دقت، امنیت، تعصب و حریم خصوصی داشته و قابل توضیح باشد.

شبکه مولد تخاصمی

شبکه مولد تخاصمی اساسا دو سیستم هوش مصنوعی هستند که مقابل همدیگر در حال مبارزه هستند. یکی محتوای اصلی را شبیه‌سازی می‌کند و دیگری موقعیت خطاها را بررسی می‌کند. با رقابت با یکدیگر، هر دو محتوا را به اندازه‌ای قابل اعتماد می‌کنند که شبیه به محتوای اصلی و مطلوب باشد.

محققان «NVIDIA» یک قالب منحصربه‌فرد هوش مصنوعی آموزش دادند  که «‌پک‌من» را بازآفرینی کند. همان‌طور که استفانی کاندن هم پیش از این در «زد دی نت» توضیح داده بود، قالب مذکور این کار را به سادگی و با مشاهده ساعات بازی و بدون موتور بازی انجام می‌دهد.

بندس معتقد است مهاجمان از شبکه مولد تخاصمی برای تقلید از الگوهای ترافیکی معمول استفاده می‌کنند تا حواس‌ها را از حمله‎شان پرت کنند و دیتاهای حساس را سریعا از میدان خارج کنند: به لطف این توانایی‌ها آن‌ها در کمتر از 30 تا 40 دقیقه وارد شده و خارج می‌شوند. به محض این‌که مهاجمان به هوش مصنوعی و یادگیری ماشینی نفوذ می‌کنند، کاری می‌کنند تا این وظایف به طور خودکار انجام شود.

همان‌طور که توماس کلیمک در مقاله‌ای با عنوان «شبکه مولد تخاصمی: آن‌ها چه هستند و چرا باید از آن‌ها بترسیم» توضیح داده، شبکه مولد تخاصمی همچنین می‌تواند برای دستیابی به رمزها، نفوذ به اکتشافات بدافزارها و گول زدن تشخیص چهره استفاده شوند. محققان یادگیری ماشین سیستمی ساختند که با آموزش دادن لیست رمزهای استاندارد صنعتی، توانایی حدس زدن رمزهای بیشتری به نسبت ابزارهای مشابه با مجموعه داده‎های مشابه را  دارد. به علاوه برای تولید داده، شبکه‌های مولد تخاصمی می‌توانند بدافزارهایی ایجاد کنند که به سیستم‌های اکتشافی با محوریت یادگیری ماشینی نفوذ کند.

بندس می‌گوید الگوریتم‌های هوش مصنوعی استفاده شده در امنیت سایبری، باید مداوم آموزش داده شوند تا روش‌های جدید حملات را تشخیص دهند: هرچه این حملات تکامل پیدا می‌کنند، ما هم باید تکامل پیدا کنیم. وقتی یک بخش از یک بدافزار با کدی درست و قانونی ساخته می‌شود، یک الگوریتم یادگیری ماشینی باید بتواند کد مخرب داخل آن را تشخیص دهد.

دستکاری ربات‌ها

به نظر گرگ فس، استراتژیست ارشد امنیت سایبری «وی ام ویر کربن بلک» و عضو هیئت مدیره، اگر الگوریتم‌های هوش مصنوعی تصمیم‌گیری می‌کنند، ممکن است دست‌کاری شوند تا تصمیم اشتباه بگیرند: اگر مهاجمان این قالب‌ها را می‌فهمیدند، به راحتی می‌توانستند به آن‌ها تجاوز کنند.

او در ادامه به حمله اخیر به یک سیستم معاملاتی ارز رمزنگاری‌شده توسط ربات‌ها اشاره کرد: مهاجمان وارد شدند و تشخیص دادند که ربات‌ها چطور معاملاتشان را انجام می‌دهند و آن‌ها هم از ربات‌ها استفاده کردند تا الگوریتم‌ها را گول بزنند. این اتفاق می‌تواند برای سیستم‌های دیگر هم بیفتد.

فس این موضوع را هم مطرح کرد که این روش جدید نیست، اما حالا الگوریتم‌ها تصمیمات هوشمندانه‌تری می‌گیرند که باعث می‎شود ریسک گرفتن یک تصمیم اشتباه را هم بالا ببرد.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
لطفاً برای تکمیل این فرم، جاوا اسکریپت را در مرورگر خود فعال کنید.