پنتاگون میخواهد از هوش مصنوعی برای پیش بینی اتفاقات پیش از وقوع آنها استفاده کند
ما این پدیده را قبلاً در فیلمها ندیدهایم؟ چه میشود اگر کشورهایی مانند ایالات متحده با استفاده از هوش مصنوعی امروزی به منظور پیش بینی اتفاقات پیش از وقوع آنها، بتوانند بهسادگی از شروع جنگ جلوگیری کنند؟
به نظر میرسد این امر، شکل نهایی بازدارندگی و راهبردی است که همه افراد را از انواع مشکلات نجات میدهد و همین تفکر آیندهنگر است که فرماندهان نظامی ایالات متحده و سیاستگذاران ارشد دفاعی را به سمت اتخاذ فوری سامانههای آگاهی موقعیتی مجهز به هوش مصنوعی، سوق میدهد.
در جولای 2021، فرماندهی دفاع هوا- فضای آمریکای شمالی (NORAD) و فرماندهی شمالی ایالات متحده (NORTHCOM) سری سوم آزمایشهایی موسوم به «آزمایشهای سلطه اطلاعات جهانی، GIDE» را با همکاری رهبرانی از 11 فرماندهی نظامی، انجام دادند. سری اول و دوم این آزمایشها در دسامبر 2020 و مارس 2021 انجام شدند. آزمایشها طوری طراحی شده بودند که مرحله به مرحله انجام شوند و هر مرحله تواناییهای فعلی سه ابزار مجهز به هوش مصنوعی با نامهای Cosmos، Lattice و Gaia را که به هم مرتبط هستند، به نمایش میگذاشتند که به نوعی به پیش بینی اتفاقات کمک میکنند.
Gaia، آگاهی موقعیتی آنی از هر مکان جغرافیایی را با استفاده از منابع مختلفی از دادههای طبقهبندیشده و غیرطبقهبندیشده مانند حجم زیادی از تصاویر ماهوارهای، دادههای ارتباطی، گزارشهای هوشمند و انواعی از دادههای حسگرها، فراهم میکند. Lattice تهدیدهای آنی را ردیابی و واکنشهای ممکن را ارائه میدهد. Cosmos امکان همکاری راهبردی و مبتنی بر ابر را در انواع بسیاری از دستورالعملها، فراهم میکند. مجموع این ابزارهای تصمیمگیری قرار است که پیش از موعد، حرکات دشمن را پیشبینی کنند و به فرماندهان ارتش ایالات متحده این امکان را بدهند که پیش از شروع جنگ سخت، از حرکات دشمن جلوگیری کنند و آنها را از هرگونه مزیت انجام اقدامات برنامهریزیشده، محروم کنند.
هوش مصنوعی در میدان جنگ
این قبیل ابزارها بهویژه برای رهبران دفاعی ایالات متحده، جالبتوجه هستند؛ زیرا با استفاده بیشتر از هوش مصنوعی در میدان جنگ، آنان را برای تصمیمگیریهای فوری در آینده، آماده میسازد.
همچنین این رهبران از چند کلیدواژه رایج در مباحث مهم حکومتی شامل سلطه اطلاعاتی، برتری در تصمیمگیری، بازدارندگی یکپارچه و اشتراک تمام حوزههای دستور و کنترل (JADC2) استفاده میکنند. لوید آستین، وزیر دفاع ایالات متحده در سخنرانی خود در همایش یکروزه کمیسیون امنیت ملی درباره هوش مصنوعی (NACAI)، بر اهمیت هوش مصنوعی در حمایت از بازدارندگی یکپارچه تأکید کرد و بیان کرد که قصد دارد از ترکیب مناسب فناوری، مفاهیم و تواناییهای عملیاتی، بهشیوه شبکهای درهمتنیدهشده استفاده کند که چنان قابلاعتماد، منعطف و رعبآور باشد که هر دشمنی را بر جای خود بنشاند.
انتظار میرود که این سامانههای مجهز به هوش مصنوعی به منظور پیش بینی اتفاقات از فراهم آوردن آگاهی موقعیتی پیشرفته فراتر روند و برای فرماندهان نظامی ایالات متحده، امکان هشدار زودهنگام را که بهمثابه دری نایاب برای برنامهریزی عملیات است، فراهم آورد. بهعنوان مثال، پیش از هر حرکت غیرقابلبازگشت دشمن در منطقه خاکستری (یعنی مرحله درگیری)، هشدار راهبردی ارائه دهد. چنین پیشرفتهایی به تصمیمگیرندگان این امکان را میدهد که گزینههای فعالانه (و نه واکنشی) را صورتبندی کنند و سریعتر تصمیم بگیرند.
این سؤال پیش میآید که اگر این برنامه، اشتباه پیش برود، چه میشود؟ همه با آثار بزرگ رمان و فیلمهای علمی- تخیلی که مشکلات خطرناک سیستمهای مجهز به هوش مصنوعی را بررسی میکنند، مانند Minority Report، The Forbin Project و War Games آشنا هستند. همچنین این ایده به طرز عجیبی یادآور برنامه اطلاعاتی شوروی به نام RYaN است که برای پیشبینی حمله هستهای بر اساس نشانگرهای داده و ارزیابیهای کامپیوتری، طراحی شده بود.
پیشبینی جنگ هستهای
طی دهه 1980، کاگب قصد داشت که با استفاده از انواع زیادی از نشانگرها مانند مکان فیزیکی کلاهکهای هستهای ایالات متحده، نظارت بر فعالیتها در سفارت آمریکا و ناتو، تمرینها و هشدارهای نظامی، نگهداری زمانبندیشده اسلحهها، سیاستهای مرخصی سربازان، پذیرش ویزا و اطلاعات سفر و فعالیتهای اطلاعاتی خارجی ایالات متحده، شروع جنگ هستهای را 6 ماه تا یک سال زودتر از وقوع آن، پیشبینی کند. آنها حتی حذف اسناد مرتبط با انقلاب آمریکا از انظار عمومی را بهعنوان نشانگر بالقوه جنگ، در نظر گرفتند. حجم عظیمی از داده برای «محاسبه و پایش همبستگی نیروها، از جمله ارتش، عوامل اقتصادی و روانشناختی برای تخصیص اعداد و وزن نسبی» وارد یک مدل کامپیوتری شدند. یافتههای RYaN به بدگمانی شوروی نسبت به حمله هستهای قریبالوقوع آمریکا در سال 1893 دامن زد و نزدیک بود رهبران آنها را به سمت شروع یک جنگ هستهای سوق دهد.
درحالحاضر، فناوریهای یادگیری ماشین قادرند الگوهای ظریف را در دادههای بهظاهر تصادفی شناسایی کنند و در آیندهای نزدیک میتوانند، پیشبینیهای دقیقی درباره دشمنان به دست دهند. در میان شور و اشتیاقها به خاطر ابزارهای مجهز به هوش مصنوعی، رهبران دفاعی آمریکا امیدوارند که بهواسطه اثبات مسئولیتپذیریشان در قبال استفاده از آنها، باقی ماندن انسانها در چرخه و کنار گذاشتن هر سیستمی که پیامدهای ناخواسته به بار آورد، نگرانیها را رفع کنند.
کارشناسان امنیت ملی مانند پاول شار، مایکل هوروویتز و کارشناسان بسیار دیگری، به موانع فنی مهمی اشاره میکنند که باید پیش از اینکه مزایای استفاده از ابزارهای مجهز به هوش مصنوعی نسبت به خطرهای بالقوه آن بیشتر شوند، بر آنها غلبه کرد. با اینکه درحالحاضر، دادههای مفید زیادی برای استفاده الگوریتمهای یادگیری ماشین وجود دارند، گردآوری مجموعهدادههای بدون سوگیری که به منظور پیشبینی پیامدهای خاص طراحی شدهاند، بهخصوص در موقعیتهای مرگ و زندگی و در زمینههایی مانند درگیری هستهای که دادهها پراکنده هستند، همچنان چالش اصلی است.
مشکلی به نام پیچیدگی جهان
پیچیدگی جهان واقعی، یک مانع اصلی دیگر است. ابزارهای یادگیری ماشین به منظور عملکرد مناسب، نیازمند مدلهای دقیقی از چگونگی کارکرد جهان هستند؛ اما دقت آنها به درک انسان از جهان و چگونگی تکامل آن، وابستگی زیادی دارد. از آنجایی که این پیچیدگی، اغلب فهم انسان را دچار چالش میکند، احتمالاً سیستمهای مجهز به هوش مصنوعی، به روشهای غیرمنتظرهای رفتار میکنند و حتی اگر یک ابزار یادگیری ماشین بر این موانع غلبه کند و کارکرد مناسبی داشته باشد، در صورتی که سیاستگذاران نتوانند پیامدهای مختلفی را که ابزار ایجاد میکند، درک کنند، همین مشکل «توضیحپذیری»، ممکن است مانع اعتماد آنها به این ابزارها شود.
استفاده از ابزارهای مجهز به هوش مصنوعی به منظور تصمیمگیریهای بهتر، یک مسئله است و کاربرد آنها برای پیش بینی اتفاقات و پیشبینی فعالیتهای دشمن برای پیشگیری از آنها، مسئلهای کاملاً متفاوت است. علاوه بر طرح مسائل فلسفی در خصوص اراده آزاد و اجتنابناپذیری، ممکن است که اقدام پیشگیرانه در واکنش به رفتار پیشبینیشده دشمن، از سوی آنها بهعنوان یک اقدام تهاجمی تلقی شود و آتش جنگی را که قصد داشتیم از وقوع آن جلوگیری کنیم، برافروزد.
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید