شرکتهای هوش مصنوعی و عقبنشینی پنهانی از تعهدات ایمنی
شرکتهای هوش مصنوعی که در حال رقابت برای تسلط بر آینده این فناوری هستند، بر پایه دادهها و رفتار کاربران، مدلهای کسبوکار خود را طراحی کردهاند. اما در حالی که این شرکتها بهشدت شما را زیر نظر دارند، ترجیح میدهند شما پیگیر تغییرات و فعالیتهایشان نباشید، بهویژه تغییراتی که در تعهدات اخلاقی و حریم خصوصی ایجاد کردهاند. این تعهدات داوطلبانه، از معدود سازوکارهای حفاظتی برای تضمین آیندهای ایمن در حوزه هوش مصنوعی محسوب میشوند.
عقبنشینی از تعهدات ایمنی در سایه سیاستهای جدید
در شرایطی که دولت ترامپ به طور فعال در حال برچیدن تدابیر ایمنی هوش مصنوعی برای ترویج «سلطه آمریکایی» است و بسیاری از شرکتها تیمهای ایمنی خود را منحل کردهاند، مسئولیت پایش این تغییرات به عهده یک سازمان غیرانتفاعی کوچک با منابع محدود افتاده است. این سازمان، پروژه میداس (Midas Project) به رهبری «تایلر جانستون» (Tyler Johnston)، در تلاش است تا فعالیتهای شرکتهای هوش مصنوعی را رصد کند و تغییرات سیاستهای آنها را شناسایی کند.
جانستون و تیمش از اواسط سال ۲۰۲۴ پروژهای به نام «برج دیدهبانی ایمنی هوش مصنوعی» (AI Safety Watchtower) را راهاندازی کردهاند. این پروژه فعالیتهای ۱۶ شرکت بزرگ، از جمله OpenAI، گوگل (Google) و آنتروپیک (Anthropic)، را زیر نظر دارد و صدها سند سیاستگذاری و صفحات وب را برای شناسایی تغییرات اساسی بررسی میکند.
جانستون میگوید: «اگر هر شرکت هوش مصنوعی یک گزارش تغییرات ارائه میکرد، نیازی به این کار نبود و خیال ما از شفافیت آنها راحت بود. حالا این وظیفه به عهده سازمانهای غیرانتفاعی و روزنامهنگاران افتاده است، در حالی که هیچکدام ابزار کافی برای این کار ندارند.»
سیاستهای دولت ترامپ و حذف تدابیر ایمنی
نگرانیهای جانستون درباره کنار گذاشتن تعهدات ایمنی، در شرایطی مطرح میشود که دولت ترامپ به طور فعال در حال حذف تدابیر حفاظتی در حوزه هوش مصنوعی است. ترامپ در دومین روز ریاستجمهوری خود در این دوره، با امضای یک فرمان اجرایی، دستور ایمنی هوش مصنوعی بایدن در سال ۲۰۲۳ را لغو کرد و آن را با فرمانی جایگزین کرد که تمرکز آن بر «سلطه آمریکایی» در این حوزه بود.
در ماه مارس ۲۰۲۵، مؤسسه ملی استاندارد و فناوری (National Institute of Standards and Technology) دستورالعملهای جدیدی را برای دانشمندان مؤسسه ایمنی هوش مصنوعی صادر کرد که هیچ اشارهای به مفاهیمی چون «ایمنی هوش مصنوعی»، «هوش مصنوعی مسئولانه» و «عدالت در هوش مصنوعی» نداشت.
با وجود تلاشهای برخی ایالتها برای تصویب قوانین مربوط به هوش مصنوعی و پیشنهاد طرحهایی در کنگره، هنوز هیچ قانون فدرالی برای تنظیم دقیق استفاده از این فناوری وجود ندارد. در هفتههای اخیر، دفتر سیاستگذاری علموفناوری ترامپ (Office of Science and Technology Policy) از شرکتها و دانشگاهیان خواسته تا نظرات خود را درباره یک «برنامه اقدام هوش مصنوعی» ارائه دهند. همانطور که انتظار میرفت، سیلیکونولی (Silicon Valley) خواستار رویکردی با حداقل نظارت شده است.
پروژه میداس: یک تلاش کوچک برای مقابله با تغییرات بزرگ
تایلر جانستون، بنیانگذار پروژه میداس، مسیر فعالیت خود در حوزه اخلاق هوش مصنوعی را از کمپینهای حمایت از حقوق حیوانات آغاز کرد. او در گذشته موفق شده بود شرکتهای غذایی را به استفاده از تخممرغهای تولیدشده بدون قفس وادار کند و امیدوار بود بتواند موفقیت مشابهی را در حوزه فناوری نیز تکرار کند. این بار، هدف او فشار آوردن بر غولهای فناوری برای پایبندی به تعهدات اخلاقی است.
پروژه میداس، با بودجهای بسیار محدود و تنها چند ابزار ساده وبکاوی (web-scraping)، تلاش میکند تغییرات پنهانی شرکتهای هوش مصنوعی را شناسایی کند. این ابزار زمانی که شرکتها بهصورت مخفیانه تعهداتشان درباره ساخت رباتهای قاتل یا توسعه تسلیحات زیستی را حذف میکنند، این تغییرات را ثبت میکند.
تا اینجا، دیدهبان ایمنی هوش مصنوعی حدود ۳۰ تغییر قابل توجه را ثبت کرده است. این تغییرات در سه دسته «مهم»، «جزئی» و «اعلامنشده» برچسبگذاری شدهاند. بهعنوان مثال، در اکتبر ۲۰۲۳، شرکت OpenAI ارزشهای بنیادین خود مانند «تاثیر محور بودن» را حذف کرد و آنها را با ارزشهایی مرتبط با AGI (هوش عمومی مصنوعی) جایگزین کرد.
تغییرات نگرانکننده در سیاستهای شرکتهای بزرگ
پروژه میداس همچنین تغییرات مهمی را در سیاستهای سایر شرکتهای بزرگ شناسایی کرده است. در ماه گذشته، گوگل نسخهای جدید از چارچوب ایمنی Frontier خود منتشر کرد که در آن خطرات مربوط به خودمختاری مدلها حذف شده و بهجای آنها مفهومی مبهم به نام «ریسکهای همراستایی» اضافه شده بود. از همه نگرانکنندهتر، عبارتی در متن جدید اضافه شده بود که نشان میداد گوگل تنها در صورتی چارچوب ایمنی خود را اجرا خواهد کرد که رقبایش نیز اقدامات مشابهی اتخاذ کنند.
گاهی اوقات، شرکتها به هشدارهای جانستون واکنش نشان دادهاند. بهعنوان مثال، ابزارهای وبکاوی دیدهبان متوجه شدند که شرکت آنتروپیک ارجاع به «تعهدات داوطلبانه کاخ سفید برای هوش مصنوعی ایمن» را از صفحه شفافیت خود حذف کرده است. با این حال، «جک کلارک» (Jack Clark)، یکی از بنیانگذاران آنتروپیک، توضیح داد که این تغییر موجب سوءتفاهم شده و در حال اصلاح آن هستند.
همکاری نظامی: بازتعریف تعهدات اخلاقی
یکی از مهمترین تغییراتی که پروژه میداس ثبت کرده، عقبنشینی شرکتهای هوش مصنوعی از مواضع ضده همکاری نظامی است. به گفته جانستون، شرکت OpenAI ابتدا همکاری خود با ارتش را با اهدافی مانند جلوگیری از خودکشی سربازان بازنشسته و پشتیبانی از امنیت سایبری وزارت دفاع توجیه کرد. اما تا نوامبر ۲۰۲۴، این شرکت در حال توسعه پهپادهای خودمختار بود. جانستون این تغییر جهت را نمونهای کلاسیک از «استراتژی در باز کردن پا» توصیف میکند. گوگل نیز در اوایل سال جاری همین مسیر را در پیش گرفت و محدودیتهای نظامی خود را لغو کرد.
جانستون میگوید: «شرکتها به طور جدی فشار رقابت جهانی در حوزه هوش مصنوعی را احساس میکنند. طرز فکر آنها اینگونه است که: اگر ما با ارتشها همکاری نکنیم، رقبای بیاخلاقتری این کار را خواهند کرد.»
آیا صنعت هوش مصنوعی به تعهدات خود پایبند است؟
در فوریه ۲۰۲۵، پروژه میداس ابزار «ردیاب سئول» (Seoul Tracker) را راهاندازی کرد تا ارزیابی کند که آیا شرکتها به وعدههایی که در نشست ایمنی هوش مصنوعی سال ۲۰۲۴ در سئول داده بودند پایبند ماندهاند. نتایج این بررسی نشان داد که بسیاری از شرکتها ضربالاجل فوریه برای اجرای سیاستهای مسئولانه را نادیده گرفتهاند و برخی دیگر، نسخههای سطحی و بیمحتوایی از این سیاستها ارائه کردهاند.
بر اساس سیستم نمرهدهی مشابه نمرات مدرسه، شرکت آنتروپیک بالاترین نمره (B منفی) را دریافت کرد، در حالی که شرکتهایی مانند آیبیام، اینفلکشن ایآی و میسترال ایآی نمره مردودی F گرفتند.
نتیجهگیری: آیا نظارت کافی وجود دارد؟
در حالی که پروژه میداس تلاش میکند تغییرات پنهانی شرکتهای هوش مصنوعی را افشا کند، هنوز این صنعت با کمبود شفافیت مواجه است. جانستون معتقد است که مسئولیت اعلام تغییرات سیاستها باید بر عهده خود شرکتها باشد، نه سازمانهای کوچک یا روزنامهنگاران. اما آیا این شرکتها واقعاً آمادهاند شفافیت را در اولویت قرار دهند؟
جانستون با نگرانی میگوید: «من نگرانم که برخی مقامهای دولتی، این عقبنشینیهای اخلاقی را بهعنوان پیشرفت ببینند، نه مشکل.»