مراکز داده در برابر جاسوسی آسیبپذیر هستند
شرکتهای فناوری صدها میلیارد دلار برای ساخت مراکز داده جدید در ایالات متحده سرمایهگذاری میکنند اما تمام این مراکز داده در برابر جاسوسی چین آسیبپذیر هستند.
شرکتهای فناوری صدها میلیارد دلار برای ساخت مراکز داده جدید در ایالات متحده سرمایهگذاری میکنند؛ جایی که اگر همه چیز طبق برنامه پیش برود مدلهای هوش مصنوعی فوقالعاده قدرتمند تازهای قرار است متولد شوند.
اما طبق گزارشی که در آوریل ۲۰۲۵ منتشر شد، تمام این مراکز داده در برابر جاسوسی چین آسیبپذیر هستند. نویسندگان گزارش استدلال میکنند که نه فقط سرمایه شرکتهای فناوری، بلکه امنیت ملی ایالات متحده نیز در معرض خطر قرار دارد؛ آن هم در شرایطی که رقابت ژئوپلیتیکی میان واشنگتن و پکن برای توسعه هوش مصنوعی پیشرفته روزبهروز شدیدتر میشود.
نویسندگان هشدار میدهند که مراکز داده پیشرفته امروزی در برابر دو نوع حمله آسیبپذیرند:
- تخریب نامتقارن (Asymmetrical Sabotage): حملاتی که با هزینهای اندک میتوانند مراکز داده را برای ماهها از کار بیندازند.
- حملات استخراج یا سرقت داده (Exfiltration Attacks): حملاتی که میتوانند مدلهای هوش مصنوعی فوقمحرمانه را به سرقت ببرند یا زیر نظر بگیرند.
حتی پیشرفتهترین مراکز دادهای که هماکنون در حال ساخت هستند، از جمله پروژه Stargate متعلق به OpenAI نیز احتمالاً در برابر چنین حملاتی آسیبپذیر هستند.
«ادوارد هریس» (Edouard Harris) یکی از نویسندگان گزارش، بهTIME میگوید: «ممکن است در نهایت با دهها مرکز داده روبهرو شویم که عملاً به داراییهای راکد تبدیل میشوند، زیرا امکان بازسازی آنها تا سطح امنیت موردنیاز وجود ندارد که یک ضربه سنگین است.» این گزارش که «پروژه ابرهوش آمریکا» (America’s Superintelligence Project) نام دارد، توسط دو برادر به نامهای ادوارد و «جرمی هریس» (Jeremie Harris) از شرکت Gladstone AI تهیه شده است؛ شرکتی که در زمینه پیامدهای امنیتی هوش مصنوعی به دولت آمریکا مشاوره میدهد.
آنها طی یک سال پژوهش، به همراه تیمی از نیروهای ویژه سابق ارتش آمریکا که در جاسوسی سایبری تخصص دارند، از یک مرکز داده متعلق به یکی از بزرگترین شرکتهای فناوری آمریکا بازدید کردند. در گفتگو با مقامات امنیت ملی و مدیران مراکز داده، آنها دریافتند که یکی از مراکز داده هوش مصنوعی متعلق به یک شرکت بزرگ آمریکایی هدف حمله قرار گرفته و مالکیت فکری آن به سرقت رفته است. در مورد دیگری نیز حملهای علیه یکی از اجزای خاص یک مرکز داده دیگر انجام شد که اگر موفقیتآمیز میبود، میتوانست کل مجموعه را برای چندین ماه از کار بیندازد.
این گزارش در پاسخ به درخواستهایی از سوی برخی چهرههای سیلیکونولی و واشنگتن برای آغاز یک «پروژه منهتن برای هوش مصنوعی» تنظیم شده است؛ طرحی که هدف آن توسعه چیزی است که در محافل داخلی «ابرهوش» نامیده میشود؛ فناوریای چنان قدرتمند که بتواند برتری راهبردی قاطعی نسبت به چین ایجاد کند. تمام شرکتهای بزرگ هوش مصنوعی در حال تلاش برای ساخت ابرهوش هستند و در سالهای اخیر، هم آمریکا و هم چین به اهمیت ژئوپلیتیکی آن پی بردهاند.
با وجود لحن تند گزارش، نویسندگان نه از چنین پروژهای حمایت میکنند و نه مخالف آن هستند. بلکه هشدار میدهند که اگر پروژهای از این نوع امروز آغاز شود، آسیبپذیری فعلی مراکز داده میتواند از همان ابتدا آن را نابود کند. در گزارش آمده است: «هیچ تضمینی وجود ندارد که بهزودی به ابرهوش دست پیدا کنیم، اما اگر این اتفاق بیفتد و بخواهیم از سرقت یا تخریب آن توسط حزب کمونیست چین جلوگیری کنیم، باید ساخت تأسیسات امن را از دیروز آغاز میکردیم.»
چین بر اجزای حیاتی مراکز داده کنترل دارد
در گزارش تأکید شده است که بسیاری از اجزای کلیدی مراکز داده مدرن عمدتاً یا منحصراً در چین ساخته میشوند. با رشد سریع صنعت مراکز داده، بسیاری از این قطعات در فهرست سفارشهای چندساله قرار دارند. این بدان معناست که اگر به بخش حیاتی درستی حمله شود، یک مرکز داده ممکن است برای ماهها یا حتی بیشتر از کار بیفتد. به گفته نویسندگان، برخی از این حملات میتوانند بسیار نامتقارن باشند و بهعنوانمثال، حملهای که تنها ۲۰ هزار دلار هزینه داشته باشد میتواند مرکزی به ارزش ۲ میلیارد دلار را برای شش ماه تا یک سال از کار بیندازد.
گزارش هشدار میدهد که در صورت وقوع چنین حملاتی، چین احتمالاً ارسال قطعات لازم برای تعمیر مراکز داده از کارافتاده را به تعویق خواهد انداخت؛ بهویژه اگر احساس کند آمریکا در آستانه دستیابی به ابرهوش است. در متن گزارش آمده است: «باید انتظار داشته باشیم زمان تحویل ژنراتورها، ترانسفورماتورها و دیگر قطعات حیاتی ساخت چین به طور مرموزی بیش از حد معمول طول بکشد. این نشانهای است که چین بهصورت بیسروصدا قطعات را به تأسیسات خود اختصاص میدهد چرا که در نهایت، کنترل پایگاه صنعتی تولید آنها در اختیار خودش است.»
آزمایشگاههای هوش مصنوعی با مشکلات امنیتی ابتدایی دستوپنجه نرم میکنند
گزارش میگوید نه مراکز داده فعلی و نه آزمایشگاههای هوش مصنوعی بهاندازهای امن نیستند که از سرقت «وزنهای مدل»؛ یعنی شبکههای عصبی زیرساختی آنها توسط مهاجمان در سطح دولتهای ملی جلوگیری کنند. نویسندگان به گفتوگویی با یکی از پژوهشگران پیشین OpenAI اشاره میکنند که دو آسیبپذیری را توضیح داده بود؛ یکی از آنها در کانالهای داخلی Slack شرکت گزارش شده اما برای ماهها بدون رسیدگی باقی مانده بود. جزئیات دقیق این حملات در نسخهای که TIME مشاهده کرده، درج نشده است.
سخنگوی OpenAI در بیانیهای گفت: «به طور کامل مشخص نیست این ادعاها به چه چیزی اشاره دارند، اما به نظر میرسد قدیمی بوده و وضعیت فعلی رویههای امنیتی ما را منعکس نمیکنند. ما برنامهای سختگیرانه برای امنیت داریم که توسط کمیته ایمنی و امنیت هیئتمدیره نظارت میشود.» نویسندگان اذعان دارند که شرایط اندکی بهبود یافته است و در گزارش آمده: «به گفته چندین پژوهشگر، امنیت در آزمایشگاههای پیشرو هوش مصنوعی در سال گذشته تا حدی بهتر شده است، اما همچنان بههیچوجه برای مقابله با حملات در سطح دولتها کافی نیست. بر اساس اظهارات کارکنان سابق، ضعف کنترلها در بسیاری از این آزمایشگاهها از تمایل فرهنگی آنها به سرعت بیشتر از امنیت ناشی میشود.»
مرکز داده خدمات وب آمازون (AWS) در شمال ویرجینیا، یکی از صدها مرکز مشابه در این منطقه.
کارشناسان مستقل نیز موافقاند که مشکلات همچنان پابرجاست. «گرگ آلن» (Greg Allen) مدیر مرکز هوش مصنوعی Wadhwani در اندیشکده مرکز مطالعات استراتژیک و بینالمللی واشنگتن، در پیامی به TIME نوشت: «در گذشتهای نهچندان دور، باندهای سایبری توانستند به داراییهای مالکیت فکری شرکت انویدیا نفوذ کنند. سرویسهای اطلاعاتی چین بهمراتب توانمندتر و پیچیدهتر از این باندها هستند. میان مهاجمان چینی و تیمهای امنیت سایبری شرکتهای هوش مصنوعی آمریکایی، عدم توازن جدی میان حمله و دفاع وجود دارد.»
ابرهوش ممکن است از کنترل خارج شود
سومین آسیبپذیری حیاتی که در گزارش شناسایی شده، آسیبپذیری خود مراکز داده و توسعهدهندگان هوش مصنوعی در برابر مدلهای قدرتمند هوش مصنوعی است. مطالعات اخیر نشان میدهد که مدلهای پیشرفته هوش مصنوعی در حال بروز تمایل و توانایی فزایندهای برای فرار از محدودیتهای اعمالشده توسط توسعهدهندگان خود هستند.
در یکی از مثالهای ذکرشده؛ در هنگام آزمایش، مدل OpenAI مأمور شد رشتهای از متن را از یک نرمافزار بازیابی کند. اما به دلیل وجود یک باگ، نرمافزار اجرا نشد. مدل بدون دستور مستقیم، شبکه را برای یافتن علت بررسی کرد و در این فرایند، یک آسیبپذیری در رایانهای که روی آن اجرا میشد کشف کرد. سپس، باز هم بدون دستور، از همان آسیبپذیری استفاده کرد تا از محیط آزمایشی خود خارج شود و رشته متنی موردنظر را بازیابی کند.
در گزارش آمده است: «هرچه توسعهدهندگان مدلهای قدرتمندتری در مسیر دستیابی به ابرهوش ساختهاند، کنترل و اصلاح آنها دشوارتر شده است. این به آن دلیل است که سامانههای هوش مصنوعی بسیار قدرتمند و آگاه به زمینه، میتوانند راهبردهای خلاقانه اما خطرناکی برای رسیدن به اهداف درونی خود ابداع کنند؛ راهبردهایی که سازندگانشان هرگز پیشبینی یا قصد طراحی آنها را نداشتند.»
گزارش توصیه میکند که هر گونه تلاش برای توسعه ابرهوش باید شامل ایجاد روشهایی برای «مهار هوش مصنوعی» (AI Containment) باشد و به مسئولان این اختیار داده شود که در صورت ارزیابی خطر بیش از حد، روند توسعه مدلهای قدرتمندتر را متوقف کنند.