Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 پنتاگون می‌خواهد از هوش مصنوعی برای پیش بینی اتفاقات پیش از وقوع آن‌ها استفاده کند

پنتاگون می‌خواهد از هوش مصنوعی برای پیش بینی اتفاقات پیش از وقوع آن‌ها استفاده کند

زمان مطالعه: 3 دقیقه

ما این پدیده را قبلاً در فیلم‌ها ندیده‌ایم؟ چه می‌شود اگر کشورهایی مانند ایالات متحده با استفاده از هوش مصنوعی امروزی به منظور پیش بینی اتفاقات پیش از وقوع آن‌ها، بتوانند به‌سادگی از شروع جنگ‌ جلوگیری کنند؟

به نظر می‌رسد این امر، شکل نهایی بازدارندگی و راهبردی است که همه افراد را از انواع مشکلات نجات می‌دهد و همین تفکر آینده‌نگر است که فرماندهان نظامی ایالات متحده و سیاست‌گذاران ارشد دفاعی را به سمت اتخاذ فوری سامانه‌های آگاهی موقعیتی مجهز به هوش مصنوعی، سوق می‌دهد.

در جولای 2021، فرماندهی دفاع هوا- فضای آمریکای شمالی (NORAD) و فرماندهی شمالی ایالات متحده (NORTHCOM) سری سوم آزمایش‌هایی موسوم به «آزمایش‌های سلطه اطلاعات جهانی، GIDE» را با همکاری رهبرانی از 11 فرماندهی نظامی، انجام دادند. سری اول و دوم این آزمایش‌ها در دسامبر 2020 و مارس 2021 انجام شدند. آزمایش‌ها طوری طراحی شده بودند که مرحله به مرحله انجام شوند و هر مرحله توانایی‌های فعلی سه ابزار مجهز به هوش مصنوعی با نام‌های Cosmos، Lattice و Gaia را که به هم مرتبط هستند، به نمایش می‌گذاشتند که به نوعی به پیش بینی اتفاقات کمک می‌کنند.

Gaia، آگاهی موقعیتی آنی از هر مکان جغرافیایی را با استفاده از منابع مختلفی از داده‌های طبقه‌بندی‌شده و غیرطبقه‌بندی‌شده مانند حجم زیادی از تصاویر ماهواره‌ای، داده‌های ارتباطی، گزارش‌های هوشمند و انواعی از داده‌های حسگرها، فراهم می‌کند. Lattice تهدیدهای آنی را ردیابی و واکنش‌های ممکن را ارائه می‌دهد. Cosmos امکان همکاری راهبردی و مبتنی بر ابر را در انواع بسیاری از دستورالعمل‌ها، فراهم می‌کند. مجموع این ابزارهای تصمیم‌گیری قرار است که پیش از موعد، حرکات دشمن را پیش‌بینی کنند و به فرماندهان ارتش ایالات متحده این امکان را بدهند که پیش از شروع جنگ سخت، از حرکات دشمن جلوگیری کنند و آن‌ها را از هرگونه مزیت انجام اقدامات برنامه‌ریزی‌شده، محروم کنند.

پیش بینی اتفاقات

هوش مصنوعی در میدان جنگ

این قبیل ابزارها به‌ویژه برای رهبران دفاعی ایالات متحده، جالب‌توجه هستند؛ زیرا با استفاده بیشتر از هوش مصنوعی در میدان جنگ، آنان را برای تصمیم‌گیری‌های فوری در آینده، آماده می‌سازد.

همچنین این رهبران از چند کلیدواژه رایج در مباحث مهم حکومتی شامل سلطه اطلاعاتی، برتری در تصمیم‌گیری، بازدارندگی یکپارچه و اشتراک تمام حوزه‌های دستور و کنترل (JADC2) استفاده می‌کنند. لوید آستین، وزیر دفاع ایالات متحده در سخنرانی خود در همایش یک‌روزه کمیسیون امنیت ملی درباره هوش مصنوعی (NACAI)، بر اهمیت هوش مصنوعی در حمایت از بازدارندگی یکپارچه تأکید کرد و بیان کرد که قصد دارد از ترکیب مناسب فناوری، مفاهیم و توانایی‌های عملیاتی، به‌شیوه شبکه‌ای درهم‌تنیده‌شده استفاده کند که چنان قابل‌اعتماد، منعطف و رعب‌آور باشد که هر دشمنی را بر جای خود بنشاند.

انتظار می‌رود که این سامانه‌های مجهز به هوش مصنوعی به منظور پیش بینی اتفاقات از فراهم آوردن آگاهی موقعیتی پیشرفته فراتر روند و برای فرماندهان نظامی ایالات متحده، امکان هشدار زودهنگام را که به‌مثابه دری نایاب برای برنامه‌ریزی عملیات است، فراهم آورد. به‌عنوان مثال، پیش از هر حرکت غیرقابل‌بازگشت دشمن در منطقه خاکستری (یعنی مرحله درگیری)، هشدار راهبردی ارائه دهد. چنین پیشرفت‌هایی به تصمیم‌گیرندگان این امکان را می‌دهد که گزینه‌های فعالانه (و نه واکنشی) را صورت‌بندی کنند و سریع‌تر تصمیم بگیرند.

این سؤال پیش می‌آید که اگر این برنامه، اشتباه پیش برود، چه می‌شود؟ همه با آثار بزرگ رمان و فیلم‌های علمی- تخیلی که مشکلات خطرناک سیستم‌های مجهز به هوش مصنوعی را بررسی می‌کنند، مانند Minority Report،  The Forbin Project و War Games  آشنا هستند. همچنین این ایده به طرز عجیبی یادآور برنامه اطلاعاتی شوروی به نام RYaN است که برای پیش‌بینی حمله هسته‌ای بر اساس نشانگر‌های داده و ارزیابی‌های کامپیوتری، طراحی شده بود.

پیش بینی اتفاقات

پیش‌بینی جنگ هسته‌ای

طی دهه 1980، کاگب قصد داشت که با استفاده از انواع زیادی از نشانگرها مانند مکان فیزیکی کلاهک‌های هسته‌ای ایالات متحده، نظارت بر فعالیت‌ها در سفارت آمریکا و ناتو، تمرین‌ها و هشدارهای نظامی، نگهداری زمان‌بندی‌شده اسلحه‌ها، سیاست‌های مرخصی سربازان، پذیرش ویزا و اطلاعات سفر و فعالیت‌های اطلاعاتی خارجی ایالات متحده، شروع جنگ هسته‌ای را 6 ماه تا یک‌ سال زودتر از وقوع آن، پیش‌بینی کند. آن‌ها حتی حذف اسناد مرتبط با انقلاب آمریکا از انظار عمومی را به‌عنوان نشانگر بالقوه جنگ، در نظر گرفتند. حجم عظیمی از داده برای «محاسبه و پایش همبستگی نیروها، از جمله ارتش، عوامل اقتصادی و روان‌شناختی برای تخصیص اعداد و وزن نسبی» وارد یک مدل کامپیوتری شدند. یافته‌های RYaN به بدگمانی شوروی نسبت به حمله هسته‌ای قریب‌الوقوع آمریکا در سال 1893 دامن زد و نزدیک بود رهبران آن‌ها را به سمت شروع یک جنگ هسته‌ای سوق دهد.

درحال‌حاضر، فناوری‌های یادگیری ماشین قادرند الگوهای ظریف را در داده‌های به‌ظاهر تصادفی شناسایی کنند و در آینده‌ای نزدیک می‌توانند، پیش‌بینی‌های دقیقی درباره دشمنان به دست دهند. در میان شور و اشتیاق‌ها به خاطر ابزارهای مجهز به هوش مصنوعی، رهبران دفاعی آمریکا امیدوارند که به‌واسطه اثبات مسئولیت‌پذیری‌شان در قبال استفاده از آن‌ها، باقی ‌ماندن انسان‌ها در چرخه و کنار گذاشتن هر سیستمی که پیامدهای ناخواسته به بار آورد، نگرانی‌ها را رفع کنند.

کارشناسان امنیت ملی مانند پاول شار، مایکل هوروویتز و کارشناسان بسیار دیگری، به موانع فنی مهمی اشاره می‌کنند که باید پیش از اینکه مزایای استفاده از ابزارهای مجهز به هوش مصنوعی نسبت به خطرهای بالقوه آن بیشتر شوند، بر آن‌ها غلبه کرد. با اینکه درحال‌حاضر، داده‌های مفید زیادی برای استفاده الگوریتم‌های یادگیری ماشین وجود دارند، گردآوری مجموعه‌داده‌های بدون سوگیری که به منظور پیش‌بینی پیامدهای خاص طراحی شده‌اند، به‌خصوص در موقعیت‌های مرگ و زندگی و در زمینه‌هایی مانند درگیری هسته‌ای که داده‌ها پراکنده هستند، همچنان چالش اصلی است.

مشکلی به نام پیچیدگی جهان

پیچیدگی جهان واقعی، یک مانع اصلی دیگر است. ابزارهای یادگیری ماشین به منظور عملکرد مناسب، نیازمند مدل‌های دقیقی از چگونگی کارکرد جهان هستند؛ اما دقت آن‌ها به درک انسان از جهان و چگونگی تکامل آن، وابستگی زیادی دارد. از آنجایی که این پیچیدگی، اغلب فهم انسان را دچار چالش می‌کند، احتمالاً سیستم‌های مجهز به هوش مصنوعی، به روش‌های غیرمنتظره‌ای رفتار می‌کنند و حتی اگر یک ابزار یادگیری ماشین بر این موانع غلبه کند و کارکرد مناسبی داشته باشد، در صورتی که سیاست‌گذاران نتوانند پیامدهای مختلفی را که ابزار ایجاد می‌کند، درک کنند، همین مشکل «توضیح‌پذیری»، ممکن است مانع اعتماد آن‌ها به این ابزارها شود.

استفاده از ابزارهای مجهز به هوش مصنوعی به منظور تصمیم‌گیری‌های بهتر، یک مسئله است و کاربرد آن‌ها برای پیش بینی اتفاقات و پیش‌بینی فعالیت‌های دشمن برای پیش‌گیری از آن‌ها، مسئله‌ای کاملاً متفاوت است. علاوه بر طرح مسائل فلسفی در خصوص اراده آزاد و اجتناب‌ناپذیری، ممکن است که اقدام پیشگیرانه در واکنش به رفتار پیش‌بینی‌شده دشمن، از سوی آن‌ها به‌عنوان یک اقدام تهاجمی تلقی شود و آتش جنگی را که قصد داشتیم از وقوع آن‌ جلوگیری کنیم، برافروزد.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]