Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 ریسک‌های پنهان در زیرساخت هوش مصنوعی ابری

ریسک‌های پنهان در زیرساخت هوش مصنوعی ابری

زمان مطالعه: 4 دقیقه

سازمان‌ها برای مقابله با ریسک‌های روزافزون در حوزه ابر و هوش مصنوعی، به یک رویکرد پلتفرمی نیاز دارند.

هوش مصنوعی مبتنی بر فضای ابری به سرعت به پایه اصلی تحول دیجیتال تبدیل شده است. با این حال، گزارش اخیر شرکت تنابل نشان می‌دهد که نزدیک به ۷۰ درصد از بارهای کاری هوش مصنوعی در فضای ابری دارای حداقل یک آسیب‌پذیری بدون رفع هستند. سایر موارد نیز الزاماً امن‌تر نیستند و هنوز به‌طور کامل مورد بررسی قرار نگرفته‌اند. این موضوع اهمیت به‌کارگیری روش‌های نوین و به‌روز در مدیریت ریسک‌های این فناوری را برای حفظ امنیت و کارایی نشان می‌دهد.

«ساتنام نارنگ»، مهندس ارشد پژوهش در شرکت Tenable، به یک ریسک پنهان و جدی اشاره می‌کند: بیش از ۷۷٪ سازمان‌ها هنوز از حساب‌های سرویس پیش‌فرض با دسترسی‌های بسیار گسترده در Google Vertex AI استفاده می‌کنند. این فقط یک عادت اشتباه نیست، بلکه باعث افزایش چشمگیر ریسک‌های امنیتی می‌شود.

هر سرویس هوش مصنوعی که روی این حساب‌ها ایجاد شود، آسیب‌پذیری‌های موجود را نیز با خود به همراه خواهد داشت و در نتیجه یک چالش امنیتی جدی به وجود می‌آورد که مدیریت آن برای بسیاری از تیم‌ها دشوار است. این مشکل فقط به سطح دسترسی‌ها محدود نمی‌شود. از پیکربندی نادرست در مراحل آموزش مدل‌ها گرفته تا آسیب‌پذیری‌های موجود در اجزای متن‌باز، زیرساخت ابری هوش مصنوعی مملو از مسیرهایی است که می‌توانند درگاه ورود هکرها یا راهی برای خروج اطلاعات حساس باشند.

وقتی ریسک از ابتدا در ساختار سیستم وجود دارد، نه اینکه بعدها به آن اضافه شود، مدیریت آن بسیار دشوارتر می‌شود. محیط‌های هوش مصنوعی مبتنی بر ابر بسیار پیچیده‌اند و از ترکیب دائماً در حال تغییری از سرویس‌ها، داده‌ها، مدل‌ها و سطوح دسترسی تشکیل شده‌اند. با این حال، بسیاری از سازمان‌ها هنوز از ابزارهای قدیمی برای مدیریت آسیب‌پذیری‌ها استفاده می‌کنند. این ابزارها معمولاً بر پایه سیستم امتیازدهی CVSS طراحی شده‌اند که فقط شدت فنی آسیب‌پذیری را می‌سنجد و توجهی به احتمال سوءاستفاده در دنیای واقعی ندارد.

نارِنگ در گفت‌وگو با AIM توضیح داد که نیمی از آسیب‌پذیری‌هایی که به عنوان مهم یا بحرانی دسته‌بندی می‌شوند، در واقع در عمل به‌ندرت مورد سوءاستفاده قرار می‌گیرند. او پیشنهاد می‌دهد که به جای تکیه بر این دسته‌بندی‌های کلی، از مدل‌های ارزیابی مبتنی بر ریسک مانند «امتیاز اولویت آسیب‌پذیری (VPR)» استفاده شود. این مدل‌ها با در نظر گرفتن ترکیبی از اطلاعات تهدید، وضعیت دارایی‌ها و داده‌های مربوط به سوءاستفاده‌های واقعی، مشخص می‌کنند کدام آسیب‌پذیری‌ها احتمال بیشتری برای تبدیل شدن به مسیر حمله دارند.

به گفته نارنگ، در برخی موارد، نشت داده‌های آموزشی که ممکن است امنیت مدل هوش مصنوعی را به خطر بیندازد، آسیب‌زننده‌تر از آسیب‌پذیری‌هایی است که فقط در محیط‌های آزمایشی با امتیاز بالا شناسایی شده‌اند. به همین دلیل، او معتقد است که اولویت‌بندی آسیب‌پذیری‌ها باید بر پایه ارزیابی واقعی ریسک انجام شود. به‌ویژه با تمرکز بر داده‌هایی که مدل‌های کلیدی امنیتی یا کاربردی را تغذیه می‌کنند و همچنین آسیب‌پذیری‌هایی که سوءاستفاده از آن‌ها در حال حاضر در جریان است. او تأکید کرد که بدون درک دقیق از زمینه ریسک، تیم‌های امنیت سایبری ممکن است تمرکز خود را روی مسائل کم‌اهمیت بگذارند و تهدیدهای اصلی را نادیده بگیرند.

چالش‌های امنیتی در محیط‌های هوش مصنوعی ابری و نیاز به رویکرد یکپارچه

محیط‌های هوش مصنوعی مبتنی بر فضای ابری بسیار پیچیده هستند و شامل ترکیبی از خدمات، داده‌ها، مدل‌ها و سطوح دسترسی مختلف می‌شوند که مرتب تغییر می‌کنند. در چنین شرایطی، بسیاری از سازمان‌ها هنوز از ابزارهای قدیمی مدیریت آسیب‌پذیری استفاده می‌کنند که فقط شدت فنی خطرات را می‌سنجند و به احتمال سوءاستفاده واقعی توجه نمی‌کنند.

مشکل اصلی در مدیریت هویت‌هاست؛ وجود حساب‌های انسانی و ماشینی زیاد با دسترسی‌های متنوع باعث شده ردیابی دقیق دسترسی‌ها دشوار شود. حساب‌های غیر فعال و دسترسی‌های بیش از حد اغلب ناشی از مدیریت ناکافی هستند.

برای رفع این مشکلات، لازم است همه هویت‌ها در یک سیستم متمرکز ثبت شوند و سیاست‌های حداقل دسترسی به طور کامل اعمال گردد. همچنین استفاده از تحلیل‌های هوش مصنوعی برای ارزیابی رفتار کاربران و دستگاه‌ها و تعیین میزان ریسک هر دسترسی ضروری است.

سازمان‌ها باید به سرعت اقدامات اصلاحی لازم مانند تغییر نقش‌ها یا محدود کردن دسترسی‌ها را اجرا کنند تا امنیت محیط حفظ شود بدون اینکه در روند کاری اختلالی به وجود آید. در نهایت، استفاده از یک رویکرد پلتفرمی و جامع برای مدیریت امنیت هوش مصنوعی و فضای ابری، بهترین راهکار برای مقابله با تهدیدات رو به رشد است.

خطرات پنهان در زیرساخت‌های هوش مصنوعی ابری

گاهی نفوذهای جدی نه به‌خاطر حملات پیچیده، بلکه به دلیل اشتباهات ساده در پیکربندی رخ می‌دهد. به‌عنوان مثال، در مارس ۲۰۲۳، OpenAI  ضعف امنیتی در کتابخانه Redis را اعلام کرد که به برخی کاربران ChatGPT Plus اجازه دسترسی به تاریخچه گفتگو و حتی اطلاعات پرداخت کاربران دیگر را می‌داد.

این مشکل از حمله خارجی ناشی نشد، اما اطلاعاتی مانند نام، ایمیل و جزئیات کارت‌های اعتباری حدود ۱.۲ درصد کاربران فاش شد.

این اتفاق نتیجه یک آسیب‌پذیری کوچک در یکی از اجزای متن‌باز و نبود تفکیک مناسب داده‌ها بود. این نمونه نشان می‌دهد که حتی نقص‌های جزئی در زیرساخت‌های ابری هوش مصنوعی می‌تواند پیامدهای بزرگی داشته باشد.

با افزایش کاربرد هوش مصنوعی، هر اشتباه کوچک می‌تواند تأثیرات گسترده‌تری روی امنیت و حریم خصوصی داشته باشد.

امنیت در تمامی مراحل داده‌های هوش مصنوعی

نارنگ تأکید کرد که برای حفاظت از داده‌های آموزش و تست، باید همه بخش‌های پروژه مثل نوت‌بوک‌ها، مدل‌ها، مخازن داده و مجموعه داده‌ها به‌طور یکپارچه مدیریت شوند. این داده‌ها باید بر اساس اهمیت و نوع اطلاعات، مانند داده‌های شخصی یا اطلاعات حساس، طبقه‌بندی شده و هر گروه، محافظت‌های ویژه‌ای دریافت کند.

استفاده از رمزنگاری هنگام انتقال و ذخیره داده‌ها ضروری است و دسترسی به داده‌ها باید محدود و کنترل شده باشد. به‌علاوه، پلتفرم‌هایی که بتوانند وضعیت امنیت داده‌ها و برنامه‌های ابری را به صورت همزمان مدیریت کنند، بهترین راهکار برای آینده هستند.

برای کاهش آسیب در صورت نشت اطلاعات، استفاده از روش‌هایی مثل داده‌های ماسک‌شده، داده‌های مصنوعی و ابزارهای اثبات اصالت داده‌ها اهمیت دارد. این اقدامات باید از ابتدا در فرآیندهای توسعه هوش مصنوعی قرار گیرند تا امنیت به صورت پایه‌ای و پیش‌فرض رعایت شود.

هوش مصنوعی ابری فقط به سرعت نیاز ندارد، امنیت نیز حیاتی است
حجم کارهای هوش مصنوعی در فضای ابری به سرعت رشد می‌کند، اما بسیاری از این پروژه‌ها با تنظیمات پیش‌فرض ناامن، شناسایی ناقص تهدیدات و تکیه بیش از حد به ابزارهای قدیمی اجرا می‌شوند.

نارنگ تاکید دارد که امنیت فضای ابری باید همگام با پیشرفت هوش مصنوعی به‌روزرسانی شود. سازمان‌هایی که در استراتژی‌های هوش مصنوعی ابری خود دید جامع، خودکارسازی فرایندها و اولویت‌بندی مبتنی بر ریسک را در نظر بگیرند، بهتر قادر به حفاظت در برابر تهدیدات خواهند بود.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
21 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]