سوءاستفاده از هوش های مصنوعی غیرنظامی
چندین ماه قبل (مارس-اسفند)، گروهی از پژوهشگران با اعلام ساخت یک ابزار هوش مصنوعی با قابلیت اختراع سلاح شیمیایی، سرتیتر خبرها را به خود اختصاص دادند. این ابزار، سرعتی خارقالعاده داشت و تنها طی 6 ساعت، میتوانست 40,000 ترکیب بالقوه برای ساخت این تسلیحات را ارائه دهد.
نگرانکنندهترین بخش داستان این بود که مشخص شد ساخت این دست از ابزارها به همین سادگی است. پژوهشگران از یک مدل ساده یادگیری ماشینی که برای بررسی میزان سمی بودن داروهای جدید به کار میرفت، استفاده کردند و با استفاده از یک رویکرد مولد و دیتاست تخصصی، طوری تغییرش دادند، تا به جای پیشبینی میزان خطرناک بودن داروهای جدید، مولکولهایی سمی طراحی کند.
استفاده از تسلیحات شیمیایی در سال 1997 ممنوع شده است و نویسندگان مقاله مذکور هم قصد نداشتند کاربرد غیرقانونی هوش مصنوعی را تشویق کنند؛ بلکه میخواستند نشان دهند که الگوریتمهای صلحآمیز و هوش های مصنوعی غیرنظامی را بهراحتی میتوان در راستای مقاصد بدخواهانه به کار برد. این واقعیت که کشورهای دشمن، گروهکهای مسلح، تشکیلات تبهکارانه یا حتی اشخاص میتوانند بهآسانی از هوش مصنوعی سوءاستفاده کنند، خطراتی جدی به صلح و امنیت جهان وارد میکند.
دهها سال همکاری و ارتباط با متخصصان و دانشمندان نیروهای مسلح باعث شده است فعالان حوزه علوم زیستی همواره با مشکل سوءاستفاده از تحقیقات صلحآمیز روبهرو شده باشند. اکنون که همین اتفاق در حوزه هوش مصنوعی تکرار میشود، با توجه به مقیاس مسئله، هرچه زودتر باید به آن رسیدگی کرد.
در همین راستا، پژوهشگران سعی دارند با همکاری دفتر امور خلع سلاح سازمان ملل و مؤسسه بینالمللی مطالعات صلح استاکهلم، پیامشان را به گوش سایر فعالان جامعه هوش مصنوعی برسانند. این گروه معتقدند که باید آگاهی نسل آینده هوش مصنوعی را بالا برد و اقدامات ظرفیتسازی انجام داد.
نقطه کور برنامههای هوش مصنوعی مسئولیتپذیر
هوش مصنوعی قابلیت تغییر بسیاری از جنبههای زندگی انسانها را دارد، اما همچون بسیاری دیگر از فناوریهای نوآورانه، بسته به اینکه چطور ساخته شود و به کار برود، میتواند مشکلاتی هم به همراه داشته باشد. طی یک دهه اخیر، آگاهی جامعه هوش مصنوعی نسبت به اتخاذ رویکردی مسئولانهتر در نوآوری افزایش پیدا کرده است. با وجود 150 برنامه فعال در این حوزه، میتوان گفت که هیچ کمبودی از این نظر نداریم. در واقع، برنامههای هوش مصنوعی مسئولیتپذیر قصد دارند با ارائه دستورالعملی اخلاقی به متخصصین هوش مصنوعی، به آنها کمک کنند عواقب منفی احتمالی کارشان را پیشبینی و رفع کنند.
مشکل اینجاست که بیشتر این برنامهها یک نقطهکور مشترک دارند: با اینکه به اثرگذاری هوش مصنوعی بر حوزههایی مثل بهداشت و درمان، آموزش، حملونقل و غیره میپردازند، از صلح و امنیت بینالمللی غافل میشوند. به عبارت دیگر، فعالین این حوزه بهندرت ریسک کاربرد هوش مصنوعیهای صلحآمیز در مسیرهای نادرست (نشر اطلاعات کذب سیاسی، حملات سایبری، تروریسم یا عملیاتهای نظامی) یا به عبارتی هوش های مصنوعی غیرنظامی مورد بررسی قرار میدهند. پس میتوان گفت که این خلأ بزرگ در گفتمان جامعه هوش مصنوعی مسئولیتپذیر میبایست رفع شود.
با توجه به اینکه بیشتر فعالان عرصه هوش مصنوعی مسئولیتپذیر بر آن دسته از سیستمهایی تمرکز دارند که برای کاربردهای نهایی هوش های مصنوعی غیرنظامی توسعه یافتهاند، جای تعجب ندارد که صلح و امنیت را نادیده بگیرند، چون همین سیستمها هم به اندازه کافی چالشهای نگرانکننده، از جمله تجاوز به حقوق انسانی یا تولید بیش از حد کربن، به همراه دارند.
متخصصان فنی هوش مصنوعی شاید بر این باورند که ریسکهای مربوط به صلح و امنیت در حیطه کاری آنها قرار نمیگیرد و دغدغه دولتهاست؛ شاید هم میترسند گفتوگو در مورد چنین مسائلی منجر به بدنامیشان بشود یا حتی ناخواسته، کاربردهای بدخواهانه این فناوری را اشاعه دهد.
سوءاستفاده از هوشهای مصنوعی غیرنظامی، مسئله تازهای نیست
سوءاستفاده از هوشهای مصنوعی غیرنظامی به قدری ملموس هستند که جامعه هوش مصنوعی نمیتواند از زیر بار عواقبش شانه خالی کند.
موجودیتهای بدخواه خیلی وقت است که از فناوریهای غیرنظامی سوءاستفاده میکنند، چون این گزینه از طراحی فناوریهای جدید یا دسترسی به فناوریهای نظامی ارزانتر و راحتتر است. به عنوان مثال، تروریستهای عراق از پهپادهای معمولی برای انفجار و از ابزارهای نظارت گسترده برای مقاصد سیاسی استفاده میکنند.
آنچه خطرات ناشی از سوءاستفاده از هوش مصنوعی را تشدید میکند، این واقعیت است که این فناوری به صورت گسترده در دسترس است و پتانسیل کاربرد عمومی را هم دارد. سوءاستفاده از فناوریهای انرژی هستهای یا علوم زیستی مستلزم سطحی از تخصص انسانی و منابع مادی بود که معمولاً بهسختی به دست میآید؛ اما در حوزه هوش مصنوعی، چنین مانعی پیش روی بدخواهان قرار ندارد، چون تنها با چند کلیک میتوان به هدف رسید.
همانطور که یکی از نویسندگان مقاله مذکور توضیح داده است، هر کسی میتواند دیتاست تخصصی برای مواد سمی را دانلود کند؛ کافی است خودش یا همکارش کد پایتون و مقداری یادگیری ماشینی بلد باشند، تا در عرض دو یا سه روز، مدلی شبیه به مدل مذکور بسازند و به نوعی سوءاستفاده از هوشهای مصنوعی غیرنظامی انجام گیرد.
تبدیل هوش مصنوعیهای صلحآمیز به سلاح همین حالا هم اتفاق میافتد. فناوری دیپفیک مصداق بارز این معضل و پیامدهای گستردهاش است. امروزه، نزدیک به ده سال پس از اختراع شبکههای مولد تخاصمی یا GAN به دست ایان گودفلا و همکارانش، این شبکهها تبدیل به ابزاری برای حملات سایبری و نشر اطلاعات کذب شدهاند و حتی در جنگافزارها به کار رفتهاند. در جنگ اوکراین، یک ویدئوی دیپفیک در شبکههای اجتماعی منتشر شد که نشان میداد رئیس جمهور اوکراین، ولادمیر زلنسکی، به ارتشش دستور عقبنشینی داده است.
تبدیل هوشهای مصنوعی غیرنظامی به تسلیحات یکی از بهترین گزینههای موجود برای تحقق سیستمهای تسلیحاتی خودکار یا AWS است. بدخواهان میتوانند از پیشرفتهای حوزه بینایی کامپیوتری و مسیریابی خودکار سوءاستفاده کرده و پهپادهای معمولی را به AWS خانگی تبدیل کنند. حتی اگر ابزارهای نهایی مهلک نباشند، قوانین بینالمللی، اصول اخلاقی و استانداردهای امنیت و ایمنی را زیر سؤال میبرند.
کشورها نمیتوانند به تنهایی با خطرات هوش مصنوعی روبهرو شوند
یکی از برجستهترین دلایل اتحاد جامعه هوش مصنوعی این است که مقابله با خطرات سوءاستفاده از هوشهای مصنوعی غیرنظامی به تنهایی امکانپذیر نیست. مسئولین دولتی ممکن است تخصص کافی برای تشخیص و نظارت بر توسعه فناوریهای آسیبزا را نداشته باشند. بهعلاوه، تدوین و اعمال قوانین فرایندی طولانی و بهشدت سیاسی است که نمیتواند با سرعت پیشرفت هوش مصنوعی همگام بماند.
از سوی دیگر، ابزارهایی همچون کنترل صادرات، که دولتها برای رسیدگی به مشکل سوءاستفاده از فناوریهای غیرنظامی به کار میبرند، میتوانند فضای آزاد اکوسیستم نوآوری هوش مصنوعی را به خطر بیندازند. بنابراین میتوان گفت که مشارکت متخصصان هوش مصنوعی در این اقدامات به سود خودشان هم هست.
پژوهشگران هوش مصنوعی میتوانند خط مقدم دفاع باشند و خطرات هوش مصنوعی را شناسایی کنند، چون قابلیت ارزیابی احتمال سوءاستفاده از محصولات خود را دارند. این گروه میتوانند با اخذ تصمیمات آگاهانهتر در مورد طراحی محصولات و با اعمال محدودیتهای غیررسمی (خودخواسته) بر انتشار و فروش نتایج مطالعات و نوآوریهایشان، مشکلات را قبل از وقوع تشخیص داده و رفع کنند.
برای مثال، پژوهشگران میتوانند بعضی از جزئیات مربوط به مطالعاتشان را منتشر نکنند؛ همانطور که پژوهشگران مدل سلاح شیمیایی جزئیات آزمایشاتشان را افشا نکردند. شرکتها هم میتوانند قابلیتهای خاصی را در محصولات خود به کار نبرند، دسترسی به کدهای حساس را محدود کنند، قابلیتهای امنیتی لازم (همچون آنتیتمپر، ژئوفنسینگ و سوئیچ از راه دور) در طراحی محصولات تعبیه کنند، یا با استفاده از احراز هویت مبتنی بر توکن، مشتریان خود را بشناسند.
چنین اقدامات، با اینکه هر یک نقاط ضعف خاص خود را دارند و نمیتوانند خطر سوءاستفاده از هوش مصنوعی را به صورت کامل از بین ببرند، اما دستکم خطرات هوش مصنوعی را کاهش میدهند. به علاوه، مقیاس اثرات منفی اقدامات دولتی را که میتوانند فضای آزاد این اکوسیستم را خدشهدار کرده و پیشرفت فناوری را با مانع روبهرو سازند، کاهش دهند.
باید از دستاوردهای برنامههای هوش مصنوعی مسئولیتپذیر بهرهبرداری کرد
متخصصان هوش مصنوعی مجبور نیستند برای رسیدگی به خطرات ناشی از سوءاستفاده از هوش مصنوعی، رویهها و ابزارهای موجود را نادیده بگیرند و به سراغ نوآوری بروند. نیازی به ساخت جعبهابزارها یا اصلنامههای کاملاً جدید نیست، بلکه آنچه اهمیت دارد این است که خطرات وارده به امنیت و صلح مورد بررسی قرار بگیرند.
باید به خاطر داشت که نوآوری در عرصه برنامههای هوش مصنوعی مسئولیتپذیر درمان همه چالشهای اجتماعی ناشی از پیشرفتهای این فناوری نیست. رسیدگی به خطرات وارده به صلح و امنیت، مستلزم رویکردی کاربردی و پایین-به-بالاست که ریسکهای موجود را در خصوص هوشهای مصنوعی غیرنظامی شناسایی کند؛ این نکته بهویژه با توجه به ماهیت چندمنظوره هوش مصنوعی اهمیت مییابد که بهکارگیری رویکردهای بالا-به-پایین و اعمال قوانین سختگیرانه را دشوار میکند.
نمیتوان از متخصصان هوش مصنوعی انتظار داشت، تا بهتنهایی تمام خطرات احتمالی هوشهای مصنوعی غیرنظامی را پیشبینی و رفع کنند. فرایندهای دولتی و میاندولتی نیز در این میان نقشی اساسی بر عهده دارند. صلح و امنیت دنیا به شرطی تضمین میشود که جامعه هوش مصنوعی و دولتها کنار هم قدم بردارند.
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید