3 روش استفاده مجرمان از هوش مصنوعی در حملات امنیت سایبری
سه متخصص امنیت سایبری توضیح دادند که چطور هوش مصنوعی و یادگیری ماشینی میتواند برای فرار از امنیت سایبری استفاده شود و نفوذها در طول اجلاسهای «اتحاد امنیت سایبری ملی» و کارگزاری بورس «نزداک» را سریعتر و تاثیرگذارتر کند.
کلوین کولمن، مدیر اجرایی NCSA () میزبان این گفتگو درباره بخشی از امنیت مفید است: تاثیرگذاری و سنجش تغییرات در رفتار اتحاد امنیت سایبری ملی National Cyber Security Alliance انسانی، سه شنبه، 6 اکتبر.
الهام طبسی، رئیس کارکنان لابراتوار فناوری اطلاعات موسسه ملی استانداردها و فناوری و یکی از اعضای هیئت مدیره «هوش مصنوعی و یادگیری ماشین امنیت سایبری Artificial Intelligence and Machine Learning for Cybersecurity»: بخش خوب، بد، زشت. مهاجمان میتوانند از هوش مصنوعی برای نفوذ به ردیابیها استفاده کنند و جایی پنهان شوند که نتوان آنها را پیدا کرد و به طور خودکار با سیستم مدافع هماهنگ شوند.
تیم بندس، رئیس امنیت اطلاعات دیجیتال گاردین، میگوید امنیت سایبری همیشه نیاز به ذهن انسانی دارد تا دفاعهای قدرتمند بسازد و حملات را متوقف کند: هوش مصنوعی دستیار است و قهرمانان واقعی آنالیزورهای امنیتی و شکارچیان تهدید هستند.
در زیر به 3 روش که در آنها از هوش مصنوعی و یادگیری ماشینی برای حملات امنیت سایبری استفاده میشود، اشاره شده است:
مسموم کردن دادهها
طبسی میگوید مجرمان گاهی دادههایی که برای تمرین دادن مدلهای یادگیری ماشینی استفاده میشود را هدف قرار میدهند. مسموم کردن دادهها طراحی شده برای دستکاری کردن مجموعه داده تمرینی و کنترل کردن نحوه پیشبینی یک مدل آموزش دیده برای حقه زدن به آن تا وظیفهاش را به طور نادرست انجام دهد. مثل تغییر دادن برچسب ایمیلهای هرز به محتوای امن.
دو نوع مسموم کردن داده وجود دارد: حملاتی که در دسترس بودن الگوریتمهای یادگیری ماشینی را هدف قرار میدهند و حملاتی که درستی آنها را هدف میگیرد. تحقیقات نشان داده که مسموم کردن 3% از مجموعه دادهها باعث 11% افت دقت میشود.
با حملات سری، یک متجاوز میتواند ورودیای به یک الگوریتم اضافه کند که طراح مدل چیزی دربارهاش نداند. متجاوز از این حمله سری استفاده میکند تا سیستم یادگیری ماشینی را دچار اشتباه در طبقهبندی کند تا یک زنجیره خاص را مطلوب و بیخطر نشان دهد؛ در حالی که در واقعیت حاوی دادههای مخرب است.
طبسی میگوید تکنیک مصموم کردن دادهها میتواند از یک قالب به دیگری منتقل شود: داده برای یادگیری ماشینی حکم خون و تغذیه را دارد و از طرفی به اندازه خود قالب باید به دادههایی که برای تمرین دادن قالبها استفاده میکنیم، اهمیت دهیم.
به اعتقاد طبسی صنعت نیاز به استانداردها و الگوهایی دارد تا بتواند کیفیت داده را تضمین دهد و این که موسسه ملی استاندارد و فناوری در حال کار کردن روی الگوهایی برای هوش مصنوعی قابل اعتماد شامل الگوهای سطح بالا و نیازهای فنی است تا بتواند دقت، امنیت، تعصب و حریم خصوصی داشته و قابل توضیح باشد.
شبکه مولد تخاصمی
شبکه مولد تخاصمی اساسا دو سیستم هوش مصنوعی هستند که مقابل همدیگر در حال مبارزه هستند. یکی محتوای اصلی را شبیهسازی میکند و دیگری موقعیت خطاها را بررسی میکند. با رقابت با یکدیگر، هر دو محتوا را به اندازهای قابل اعتماد میکنند که شبیه به محتوای اصلی و مطلوب باشد.
محققان «NVIDIA» یک قالب منحصربهفرد هوش مصنوعی آموزش دادند که «پکمن» را بازآفرینی کند. همانطور که استفانی کاندن هم پیش از این در «زد دی نت» توضیح داده بود، قالب مذکور این کار را به سادگی و با مشاهده ساعات بازی و بدون موتور بازی انجام میدهد.
بندس معتقد است مهاجمان از شبکه مولد تخاصمی برای تقلید از الگوهای ترافیکی معمول استفاده میکنند تا حواسها را از حملهشان پرت کنند و دیتاهای حساس را سریعا از میدان خارج کنند: به لطف این تواناییها آنها در کمتر از 30 تا 40 دقیقه وارد شده و خارج میشوند. به محض اینکه مهاجمان به هوش مصنوعی و یادگیری ماشینی نفوذ میکنند، کاری میکنند تا این وظایف به طور خودکار انجام شود.
همانطور که توماس کلیمک در مقالهای با عنوان «شبکه مولد تخاصمی: آنها چه هستند و چرا باید از آنها بترسیم» توضیح داده، شبکه مولد تخاصمی همچنین میتواند برای دستیابی به رمزها، نفوذ به اکتشافات بدافزارها و گول زدن تشخیص چهره استفاده شوند. محققان یادگیری ماشین سیستمی ساختند که با آموزش دادن لیست رمزهای استاندارد صنعتی، توانایی حدس زدن رمزهای بیشتری به نسبت ابزارهای مشابه با مجموعه دادههای مشابه را دارد. به علاوه برای تولید داده، شبکههای مولد تخاصمی میتوانند بدافزارهایی ایجاد کنند که به سیستمهای اکتشافی با محوریت یادگیری ماشینی نفوذ کند.
بندس میگوید الگوریتمهای هوش مصنوعی استفاده شده در امنیت سایبری، باید مداوم آموزش داده شوند تا روشهای جدید حملات را تشخیص دهند: هرچه این حملات تکامل پیدا میکنند، ما هم باید تکامل پیدا کنیم. وقتی یک بخش از یک بدافزار با کدی درست و قانونی ساخته میشود، یک الگوریتم یادگیری ماشینی باید بتواند کد مخرب داخل آن را تشخیص دهد.
دستکاری رباتها
به نظر گرگ فس، استراتژیست ارشد امنیت سایبری «وی ام ویر کربن بلک» و عضو هیئت مدیره، اگر الگوریتمهای هوش مصنوعی تصمیمگیری میکنند، ممکن است دستکاری شوند تا تصمیم اشتباه بگیرند: اگر مهاجمان این قالبها را میفهمیدند، به راحتی میتوانستند به آنها تجاوز کنند.
او در ادامه به حمله اخیر به یک سیستم معاملاتی ارز رمزنگاریشده توسط رباتها اشاره کرد: مهاجمان وارد شدند و تشخیص دادند که رباتها چطور معاملاتشان را انجام میدهند و آنها هم از رباتها استفاده کردند تا الگوریتمها را گول بزنند. این اتفاق میتواند برای سیستمهای دیگر هم بیفتد.
فس این موضوع را هم مطرح کرد که این روش جدید نیست، اما حالا الگوریتمها تصمیمات هوشمندانهتری میگیرند که باعث میشود ریسک گرفتن یک تصمیم اشتباه را هم بالا ببرد.
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید.