Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 سوءاستفاده از هوش های مصنوعی‌ غیرنظامی

سوءاستفاده از هوش های مصنوعی‌ غیرنظامی

زمان مطالعه: 4 دقیقه

چندین ماه قبل (مارس-اسفند)، گروهی از پژوهشگران با اعلام ساخت یک ابزار هوش مصنوعی با قابلیت اختراع سلاح شیمیایی، سرتیتر خبرها را به خود اختصاص دادند. این ابزار، سرعتی خارق‌العاده داشت و تنها طی 6 ساعت، می‌توانست 40,000 ترکیب بالقوه برای ساخت این تسلیحات را ارائه دهد.

نگران‌کننده‌ترین بخش داستان این بود که مشخص شد ساخت این دست از ابزارها به همین سادگی است. پژوهشگران از یک مدل ساده‌ یادگیری ماشینی که برای بررسی میزان سمی بودن داروهای جدید به کار می‌رفت، استفاده کردند و با استفاده از یک رویکرد مولد و دیتاست تخصصی، طوری تغییرش دادند، تا به جای پیش‌بینی میزان خطرناک بودن داروهای جدید، مولکول‌هایی سمی طراحی کند.

استفاده از تسلیحات شیمیایی در سال 1997 ممنوع شده است و نویسندگان مقاله‌ مذکور هم قصد نداشتند کاربرد غیرقانونی هوش مصنوعی را تشویق کنند؛ بلکه می‌خواستند نشان دهند که الگوریتم‌های صلح‌آمیز و هوش های مصنوعی‌ غیرنظامی را به‌راحتی می‌توان در راستای مقاصد بدخواهانه به کار برد. این واقعیت که کشورهای دشمن، گروهک‌های مسلح، تشکیلات تبهکارانه یا حتی اشخاص می‌توانند به‌آسانی از هوش مصنوعی سوءاستفاده کنند، خطراتی جدی به صلح و امنیت جهان وارد می‌کند.

ده‌ها سال همکاری و ارتباط با متخصصان و دانشمندان نیروهای مسلح باعث شده است فعالان حوزه‌ علوم زیستی همواره با مشکل سوءاستفاده از تحقیقات صلح‌آمیز روبه‌رو شده باشند. اکنون که همین اتفاق در حوزه‌ هوش مصنوعی تکرار می‌شود، با توجه به مقیاس مسئله، هرچه زودتر باید به آن رسیدگی کرد.

در همین راستا، پژوهشگران سعی دارند با همکاری دفتر امور خلع سلاح سازمان ملل و مؤسسه بین‌المللی مطالعات صلح استاکهلم، پیام‌شان را به گوش سایر فعالان جامعه‌ هوش مصنوعی برسانند. این گروه معتقدند که باید آگاهی نسل آینده‌ هوش مصنوعی را بالا برد و اقدامات ظرفیت‌سازی انجام داد.

نقطه کور برنامه‌های هوش مصنوعی مسئولیت‌پذیر

هوش مصنوعی قابلیت تغییر بسیاری از جنبه‌های زندگی انسان‌ها را دارد، اما همچون بسیاری دیگر از فناوری‌های نوآورانه، بسته به این‌که چطور ساخته شود و به کار برود، می‌تواند مشکلاتی هم به همراه داشته باشد. طی یک دهه‌ اخیر، آگاهی جامعه‌ هوش مصنوعی نسبت به اتخاذ رویکردی مسئولانه‌تر در نوآوری افزایش پیدا کرده است. با وجود 150 برنامه‌ فعال در این حوزه، می‌توان گفت که هیچ کمبودی از این نظر نداریم. در واقع، برنامه‌های هوش مصنوعی مسئولیت‌پذیر قصد دارند با ارائه‌ دستورالعملی اخلاقی به متخصصین هوش مصنوعی، به آن‌ها کمک کنند عواقب منفی احتمالی کارشان را پیش‌بینی و رفع کنند.

هوش های مصنوعی‌ غیرنظامی

مشکل این‌جاست که بیشتر این برنامه‌ها یک نقطه‌کور مشترک دارند: با این‌که به اثرگذاری هوش مصنوعی بر حوزه‌هایی مثل بهداشت ‌و درمان، آموزش، حمل‌ونقل و غیره می‌پردازند، از صلح و امنیت بین‌المللی غافل می‌شوند. به عبارت دیگر، فعالین این حوزه به‌ندرت ریسک کاربرد هوش مصنوعی‌های صلح‌آمیز در مسیرهای نادرست (نشر اطلاعات کذب سیاسی، حملات سایبری، تروریسم یا عملیات‌های نظامی) یا به عبارتی هوش های مصنوعی‌ غیرنظامی مورد بررسی قرار می‌دهند. پس می‌توان گفت که این خلأ بزرگ در گفتمان جامعه‌ هوش مصنوعی مسئولیت‌پذیر می‌بایست رفع شود.

با توجه به این‌که بیشتر فعالان عرصه‌ هوش مصنوعی مسئولیت‌پذیر بر آن دسته از سیستم‌هایی تمرکز دارند که برای کاربردهای نهایی هوش های مصنوعی‌ غیرنظامی توسعه یافته‌اند، جای تعجب ندارد که صلح و امنیت را نادیده بگیرند، چون همین سیستم‌ها هم به اندازه‌ کافی چالش‌های نگران‌کننده، از جمله تجاوز به حقوق انسانی یا تولید بیش از حد کربن، به همراه دارند.

متخصصان فنی هوش مصنوعی شاید بر این باورند که ریسک‌های مربوط به صلح و امنیت در حیطه‌ کاری آن‌ها قرار نمی‌گیرد و دغدغه‌ دولت‌هاست؛ شاید هم می‌ترسند گفت‌وگو در مورد چنین مسائلی منجر به بدنامی‌شان بشود یا حتی ناخواسته، کاربردهای بدخواهانه‌ این فناوری را اشاعه دهد.

سوءاستفاده از هوش‌های مصنوعی غیرنظامی، مسئله‌ تازه‌ای نیست

سوءاستفاده از هوش‌های مصنوعی غیرنظامی به قدری ملموس هستند که جامعه‌ هوش مصنوعی نمی‌تواند از زیر بار عواقبش شانه خالی کند.

موجودیت‌های بدخواه خیلی وقت است که از فناوری‌های غیرنظامی سوءاستفاده می‌کنند، چون این گزینه از طراحی فناوری‌های جدید یا دسترسی به فناوری‌های نظامی ارزان‌تر و راحت‌تر است. به عنوان مثال، تروریست‌های عراق از پهپادهای معمولی برای انفجار و از ابزارهای نظارت گسترده برای مقاصد سیاسی استفاده می‌کنند.

آن‌چه خطرات ناشی از سوءاستفاده از هوش مصنوعی را تشدید می‌کند، این واقعیت است که این فناوری به صورت گسترده در دسترس است و پتانسیل کاربرد عمومی را هم دارد. سوءاستفاده از فناوری‌های انرژی هسته‌ای یا علوم زیستی مستلزم سطحی از تخصص انسانی و منابع مادی بود که معمولاً به‌سختی به دست می‌آید؛ اما در حوزه‌ هوش مصنوعی، چنین مانعی پیش روی بدخواهان قرار ندارد، چون تنها با چند کلیک می‌توان به هدف رسید.

هوش های مصنوعی‌ غیرنظامی

همان‌طور که یکی از نویسندگان مقاله‌ مذکور توضیح داده است، هر کسی می‌تواند دیتاست تخصصی برای مواد سمی را دانلود کند؛ کافی است خودش یا همکارش کد پایتون و مقداری یادگیری ماشینی بلد باشند، تا در عرض دو یا سه روز، مدلی شبیه به مدل مذکور بسازند و به نوعی سوءاستفاده از هوش‌های مصنوعی غیرنظامی انجام گیرد.

تبدیل هوش مصنوعی‌های صلح‌آمیز به سلاح همین حالا هم اتفاق می‌افتد. فناوری دیپ‌فیک مصداق بارز این معضل و پیامدهای گسترده‌اش است. امروزه، نزدیک به ده سال پس از اختراع شبکه‌های مولد تخاصمی یا GAN به دست ایان گودفلا و همکارانش، این شبکه‌ها تبدیل به ابزاری برای حملات سایبری و نشر اطلاعات کذب شده‌اند و حتی در جنگ‌افزارها به کار رفته‌اند. در جنگ اوکراین، یک ویدئوی دیپ‌فیک در شبکه‌های اجتماعی منتشر شد که نشان می‌داد رئیس جمهور اوکراین، ولادمیر زلنسکی، به ارتشش دستور عقب‌نشینی داده است.

تبدیل هوش‌های‌ مصنوعی غیرنظامی به تسلیحات یکی از بهترین گزینه‌های موجود برای تحقق سیستم‌های تسلیحاتی خودکار یا AWS است. بدخواهان می‌توانند از پیشرفت‌های حوزه‌ بینایی کامپیوتری و مسیریابی خودکار سوءاستفاده کرده و پهپادهای معمولی را به AWS خانگی تبدیل کنند. حتی اگر ابزارهای نهایی مهلک نباشند، قوانین بین‌المللی، اصول اخلاقی و استانداردهای امنیت و ایمنی را زیر سؤال می‌برند.

کشورها نمی‌توانند به تنهایی با خطرات هوش مصنوعی روبه‌رو شوند

یکی از برجسته‌ترین دلایل اتحاد جامعه‌ هوش مصنوعی این است که مقابله با خطرات سوءاستفاده از هوش‌های مصنوعی غیرنظامی به تنهایی امکان‌پذیر نیست. مسئولین دولتی ممکن است تخصص کافی برای تشخیص و نظارت بر توسعه‌ فناوری‌های آسیب‌زا را نداشته باشند. به‌علاوه، تدوین و اعمال قوانین فرایندی طولانی و به‌شدت سیاسی است که نمی‌تواند با سرعت پیشرفت هوش مصنوعی هم‌گام بماند.

از سوی دیگر، ابزارهایی همچون کنترل صادرات، که دولت‌ها برای رسیدگی به مشکل سوءاستفاده از فناوری‌های غیرنظامی به کار می‌برند، می‌توانند فضای آزاد اکوسیستم نوآوری هوش مصنوعی را به خطر بیندازند. بنابراین می‌توان گفت که مشارکت متخصصان هوش مصنوعی در این اقدامات به سود خودشان هم هست.

پژوهشگران هوش مصنوعی می‌توانند خط مقدم دفاع باشند و خطرات هوش مصنوعی را شناسایی کنند، چون قابلیت ارزیابی احتمال سوءاستفاده از محصولات خود را دارند. این گروه می‌توانند با اخذ تصمیمات آگاهانه‌تر در مورد طراحی محصولات و با اعمال محدودیت‌های غیررسمی (خودخواسته) بر انتشار و فروش نتایج مطالعات و نوآوری‌هایشان، مشکلات را قبل از وقوع تشخیص داده و رفع کنند.

برای مثال، پژوهشگران می‌توانند بعضی از جزئیات مربوط به مطالعات‌شان را منتشر نکنند؛ همان‌طور که پژوهشگران مدل سلاح شیمیایی جزئیات آزمایشات‌شان را افشا نکردند. شرکت‌ها هم می‌توانند قابلیت‌های خاصی را در محصولات خود به کار نبرند، دسترسی به کدهای حساس را محدود کنند، قابلیت‌های امنیتی لازم (همچون آنتی‌تمپر، ژئوفنسینگ و سوئیچ از راه دور) در طراحی محصولات تعبیه کنند، یا با استفاده از احراز هویت مبتنی بر توکن، مشتریان خود را بشناسند.

هوش های مصنوعی‌ غیرنظامی

چنین اقدامات، با این‌که هر یک نقاط ضعف خاص خود را دارند و نمی‌توانند خطر سوءاستفاده از هوش مصنوعی را به صورت کامل از بین ببرند، اما دست‌کم خطرات هوش مصنوعی را کاهش می‌دهند. به علاوه، مقیاس اثرات منفی اقدامات دولتی را که می‌توانند فضای آزاد این اکوسیستم را خدشه‌دار کرده و پیشرفت فناوری را با مانع روبه‌رو سازند، کاهش دهند.

باید از دستاوردهای برنامه‌های هوش مصنوعی مسئولیت‌پذیر بهره‌برداری کرد

متخصصان هوش مصنوعی مجبور نیستند برای رسیدگی به خطرات ناشی از سوءاستفاده از هوش مصنوعی، رویه‌ها و ابزارهای موجود را نادیده بگیرند و به سراغ نوآوری بروند. نیازی به ساخت جعبه‌ابزارها یا اصلنامه‌های کاملاً جدید نیست، بلکه آن‌چه اهمیت دارد این است که خطرات وارده به امنیت و صلح مورد بررسی قرار بگیرند.

باید به خاطر داشت که نوآوری در عرصه‌ برنامه‌های هوش مصنوعی مسئولیت‌پذیر درمان همه‌ چالش‌های اجتماعی ناشی از پیشرفت‌های این فناوری نیست. رسیدگی به خطرات وارده به صلح و امنیت، مستلزم رویکردی کاربردی و پایین-به-بالاست که ریسک‌های موجود را در خصوص هوش‌های مصنوعی غیرنظامی شناسایی کند؛ این نکته به‌ویژه با توجه به ماهیت چندمنظوره‌ هوش مصنوعی اهمیت می‌یابد که به‌کارگیری رویکردهای بالا-به-پایین و اعمال قوانین سخت‌گیرانه را دشوار می‌کند.

نمی‌توان از متخصصان هوش مصنوعی انتظار داشت، تا به‌تنهایی تمام خطرات احتمالی هوش‌های مصنوعی غیرنظامی را پیش‌بینی و رفع کنند. فرایندهای دولتی و میان‌دولتی نیز در این میان نقشی اساسی بر عهده دارند. صلح و امنیت دنیا به شرطی تضمین می‌شود که جامعه‌ هوش مصنوعی و دولت‌ها کنار هم قدم بردارند.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]