ریسکهای پنهان در زیرساخت هوش مصنوعی ابری
سازمانها برای مقابله با ریسکهای روزافزون در حوزه ابر و هوش مصنوعی، به یک رویکرد پلتفرمی نیاز دارند.
هوش مصنوعی مبتنی بر فضای ابری به سرعت به پایه اصلی تحول دیجیتال تبدیل شده است. با این حال، گزارش اخیر شرکت تنابل نشان میدهد که نزدیک به ۷۰ درصد از بارهای کاری هوش مصنوعی در فضای ابری دارای حداقل یک آسیبپذیری بدون رفع هستند. سایر موارد نیز الزاماً امنتر نیستند و هنوز بهطور کامل مورد بررسی قرار نگرفتهاند. این موضوع اهمیت بهکارگیری روشهای نوین و بهروز در مدیریت ریسکهای این فناوری را برای حفظ امنیت و کارایی نشان میدهد.
«ساتنام نارنگ»، مهندس ارشد پژوهش در شرکت Tenable، به یک ریسک پنهان و جدی اشاره میکند: بیش از ۷۷٪ سازمانها هنوز از حسابهای سرویس پیشفرض با دسترسیهای بسیار گسترده در Google Vertex AI استفاده میکنند. این فقط یک عادت اشتباه نیست، بلکه باعث افزایش چشمگیر ریسکهای امنیتی میشود.
هر سرویس هوش مصنوعی که روی این حسابها ایجاد شود، آسیبپذیریهای موجود را نیز با خود به همراه خواهد داشت و در نتیجه یک چالش امنیتی جدی به وجود میآورد که مدیریت آن برای بسیاری از تیمها دشوار است. این مشکل فقط به سطح دسترسیها محدود نمیشود. از پیکربندی نادرست در مراحل آموزش مدلها گرفته تا آسیبپذیریهای موجود در اجزای متنباز، زیرساخت ابری هوش مصنوعی مملو از مسیرهایی است که میتوانند درگاه ورود هکرها یا راهی برای خروج اطلاعات حساس باشند.
وقتی ریسک از ابتدا در ساختار سیستم وجود دارد، نه اینکه بعدها به آن اضافه شود، مدیریت آن بسیار دشوارتر میشود. محیطهای هوش مصنوعی مبتنی بر ابر بسیار پیچیدهاند و از ترکیب دائماً در حال تغییری از سرویسها، دادهها، مدلها و سطوح دسترسی تشکیل شدهاند. با این حال، بسیاری از سازمانها هنوز از ابزارهای قدیمی برای مدیریت آسیبپذیریها استفاده میکنند. این ابزارها معمولاً بر پایه سیستم امتیازدهی CVSS طراحی شدهاند که فقط شدت فنی آسیبپذیری را میسنجد و توجهی به احتمال سوءاستفاده در دنیای واقعی ندارد.
نارِنگ در گفتوگو با AIM توضیح داد که نیمی از آسیبپذیریهایی که به عنوان مهم یا بحرانی دستهبندی میشوند، در واقع در عمل بهندرت مورد سوءاستفاده قرار میگیرند. او پیشنهاد میدهد که به جای تکیه بر این دستهبندیهای کلی، از مدلهای ارزیابی مبتنی بر ریسک مانند «امتیاز اولویت آسیبپذیری (VPR)» استفاده شود. این مدلها با در نظر گرفتن ترکیبی از اطلاعات تهدید، وضعیت داراییها و دادههای مربوط به سوءاستفادههای واقعی، مشخص میکنند کدام آسیبپذیریها احتمال بیشتری برای تبدیل شدن به مسیر حمله دارند.
به گفته نارنگ، در برخی موارد، نشت دادههای آموزشی که ممکن است امنیت مدل هوش مصنوعی را به خطر بیندازد، آسیبزنندهتر از آسیبپذیریهایی است که فقط در محیطهای آزمایشی با امتیاز بالا شناسایی شدهاند. به همین دلیل، او معتقد است که اولویتبندی آسیبپذیریها باید بر پایه ارزیابی واقعی ریسک انجام شود. بهویژه با تمرکز بر دادههایی که مدلهای کلیدی امنیتی یا کاربردی را تغذیه میکنند و همچنین آسیبپذیریهایی که سوءاستفاده از آنها در حال حاضر در جریان است. او تأکید کرد که بدون درک دقیق از زمینه ریسک، تیمهای امنیت سایبری ممکن است تمرکز خود را روی مسائل کماهمیت بگذارند و تهدیدهای اصلی را نادیده بگیرند.
چالشهای امنیتی در محیطهای هوش مصنوعی ابری و نیاز به رویکرد یکپارچه
محیطهای هوش مصنوعی مبتنی بر فضای ابری بسیار پیچیده هستند و شامل ترکیبی از خدمات، دادهها، مدلها و سطوح دسترسی مختلف میشوند که مرتب تغییر میکنند. در چنین شرایطی، بسیاری از سازمانها هنوز از ابزارهای قدیمی مدیریت آسیبپذیری استفاده میکنند که فقط شدت فنی خطرات را میسنجند و به احتمال سوءاستفاده واقعی توجه نمیکنند.
مشکل اصلی در مدیریت هویتهاست؛ وجود حسابهای انسانی و ماشینی زیاد با دسترسیهای متنوع باعث شده ردیابی دقیق دسترسیها دشوار شود. حسابهای غیر فعال و دسترسیهای بیش از حد اغلب ناشی از مدیریت ناکافی هستند.
برای رفع این مشکلات، لازم است همه هویتها در یک سیستم متمرکز ثبت شوند و سیاستهای حداقل دسترسی به طور کامل اعمال گردد. همچنین استفاده از تحلیلهای هوش مصنوعی برای ارزیابی رفتار کاربران و دستگاهها و تعیین میزان ریسک هر دسترسی ضروری است.
سازمانها باید به سرعت اقدامات اصلاحی لازم مانند تغییر نقشها یا محدود کردن دسترسیها را اجرا کنند تا امنیت محیط حفظ شود بدون اینکه در روند کاری اختلالی به وجود آید. در نهایت، استفاده از یک رویکرد پلتفرمی و جامع برای مدیریت امنیت هوش مصنوعی و فضای ابری، بهترین راهکار برای مقابله با تهدیدات رو به رشد است.
خطرات پنهان در زیرساختهای هوش مصنوعی ابری
گاهی نفوذهای جدی نه بهخاطر حملات پیچیده، بلکه به دلیل اشتباهات ساده در پیکربندی رخ میدهد. بهعنوان مثال، در مارس ۲۰۲۳، OpenAI ضعف امنیتی در کتابخانه Redis را اعلام کرد که به برخی کاربران ChatGPT Plus اجازه دسترسی به تاریخچه گفتگو و حتی اطلاعات پرداخت کاربران دیگر را میداد.
این مشکل از حمله خارجی ناشی نشد، اما اطلاعاتی مانند نام، ایمیل و جزئیات کارتهای اعتباری حدود ۱.۲ درصد کاربران فاش شد.
این اتفاق نتیجه یک آسیبپذیری کوچک در یکی از اجزای متنباز و نبود تفکیک مناسب دادهها بود. این نمونه نشان میدهد که حتی نقصهای جزئی در زیرساختهای ابری هوش مصنوعی میتواند پیامدهای بزرگی داشته باشد.
با افزایش کاربرد هوش مصنوعی، هر اشتباه کوچک میتواند تأثیرات گستردهتری روی امنیت و حریم خصوصی داشته باشد.
امنیت در تمامی مراحل دادههای هوش مصنوعی
نارنگ تأکید کرد که برای حفاظت از دادههای آموزش و تست، باید همه بخشهای پروژه مثل نوتبوکها، مدلها، مخازن داده و مجموعه دادهها بهطور یکپارچه مدیریت شوند. این دادهها باید بر اساس اهمیت و نوع اطلاعات، مانند دادههای شخصی یا اطلاعات حساس، طبقهبندی شده و هر گروه، محافظتهای ویژهای دریافت کند.
استفاده از رمزنگاری هنگام انتقال و ذخیره دادهها ضروری است و دسترسی به دادهها باید محدود و کنترل شده باشد. بهعلاوه، پلتفرمهایی که بتوانند وضعیت امنیت دادهها و برنامههای ابری را به صورت همزمان مدیریت کنند، بهترین راهکار برای آینده هستند.
برای کاهش آسیب در صورت نشت اطلاعات، استفاده از روشهایی مثل دادههای ماسکشده، دادههای مصنوعی و ابزارهای اثبات اصالت دادهها اهمیت دارد. این اقدامات باید از ابتدا در فرآیندهای توسعه هوش مصنوعی قرار گیرند تا امنیت به صورت پایهای و پیشفرض رعایت شود.
هوش مصنوعی ابری فقط به سرعت نیاز ندارد، امنیت نیز حیاتی است
حجم کارهای هوش مصنوعی در فضای ابری به سرعت رشد میکند، اما بسیاری از این پروژهها با تنظیمات پیشفرض ناامن، شناسایی ناقص تهدیدات و تکیه بیش از حد به ابزارهای قدیمی اجرا میشوند.
نارنگ تاکید دارد که امنیت فضای ابری باید همگام با پیشرفت هوش مصنوعی بهروزرسانی شود. سازمانهایی که در استراتژیهای هوش مصنوعی ابری خود دید جامع، خودکارسازی فرایندها و اولویتبندی مبتنی بر ریسک را در نظر بگیرند، بهتر قادر به حفاظت در برابر تهدیدات خواهند بود.