مدلهای جدید خطر بیشتری برای سوءاستفاده در ساخت سلاحهای بیولوژیکی دارند
شرکت OpenAI اعلام کرده است که مدلهای جدید این شرکت خطر بیشتری برای سوءاستفاده در ساخت سلاحهای بیولوژیکی دارند. این هشدارها زمانی مطرح میشود که محققان ایمنی نسبت به خطرات بالقوه فناوریهای پیشرفته هشدار دادهاند.
این شرکت که به تازگی مدل جدید خود را با نام o1 معرفی و اعلام کرده این مدل دارای قابلیتهای تقویت شدهای در زمینه استدلال، حل مسائل پیچیده ریاضی و پاسخ به سوالات و تحقیقاتی علمی هستند. این تواناییها به عنوان یک پیشرفت مهم در جهت ایجاد هوش عمومی مصنوعی (ماشینهایی با تواناییهای شناختی انسانی) محسوب میشود.
در توضیحات OpenAI، در مورد نحوه عملکرد این هوش مصنوعی، آمده است که مدلهای جدید دارای خطر متوسط در زمینه سلاحهای شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای (CBRN) هستند. این درجه متوسط، بالاترین رتبهای است که OpenAI تاکنون به مدلهای خود داده است و به این معناست که این فناوری به طور معناداری توانایی افراد متخصص در زمینههای مرتبط با CBRN را برای ایجاد تهدیدهای شناخته شده CBRN افزایش میدهد.
به گفته کارشناسان نرمافزار هوش مصنوعی با قابلیتهای پیشرفتهتر، مانند توانایی انجام استدلالهای مرحلهبهمرحله در دست افرادی با نیت بد، خطر بیشتری برای سوءاستفاده ایجاد میکند.
این هشدارها در حالی منتشر میشود که شرکتهای فناوری از جمله گوگل، متا و Anthropic در حال رقابت برای ساخت و بهبود سیستمهای هوش مصنوعی پیچیده هستند، چرا که این شرکتها به دنبال ایجاد نرمافزاریاند که به عنوان عاملهایی عمل کند که به انسانها در انجام وظایف و مدیریت زندگی روزمره کمک میکند. این عاملهای هوش مصنوعی همچنین به عنوان منبع درآمد بالقوه برای شرکتهایی دیده میشوند که تاکنون با هزینههای سنگین آموزش و اجرای مدلهای جدید دستوپنجه نرم میکنند.
این امر باعث شده است تلاشهایی برای رگولاتوری بهتر شرکتهای هوش مصنوعی صورت گیرد. در کالیفرنیا، یک لایحه جنجالی با نام SB 1047 مطرح شده که میتواند شرکتهای تولیدکننده مدلهای پرهزینه را ملزم کند تا اقداماتی برای کاهش خطر استفاده از مدلهایشان در توسعه سلاحهای بیولوژیکی انجام دهند.
برخی از سرمایهگذاران خطرپذیر و گروههای فناوری، از جمله OpenAI، هشدار دادهاند که قانون پیشنهادی میتواند تأثیر منفی بر صنعت هوش مصنوعی بگذارد. فرماندار کالیفرنیا، گاوین نیوسام، باید طی روزهای آینده تصمیم بگیرد که آیا این قانون را امضا یا وتو کند.
یوشوا بنگیو، استاد علوم کامپیوتر در دانشگاه مونترال و یکی از پیشروترین دانشمندان هوش مصنوعی جهان، گفت: «اگر OpenAI واقعاً به سطح خطر متوسط برای سلاحهای CBRN رسیده باشد، این موضوع همانطور که گزارش دادهاند، اهمیت و فوریت تصویب قوانینی مانند SB 1047 را برای حفاظت از عموم مردم تقویت میکند».
او افزود: «با پیشرفت مدلهای پیشرفته هوش مصنوعی به سمت هوش عمومی مصنوعی، اگر اقدامات محافظتی لازم وجود نداشته باشد، خطرات همچنان افزایش خواهند یافت. بهبود توانایی هوش مصنوعی در استدلال و استفاده از این مهارت برای فریبدادن، به طور ویژه خطرناک است».
میرا موراتی، مدیر ارشد فناوری OpenAI، به فایننشال تایمز گفت که این شرکت به دلیل قابلیتهای پیشرفته مدلهای o1، با احتیاط بیشتری آنها را به عموم ارائه میدهد. این محصول از طریق اشتراکهای پرداختی ChatGPT و برای برنامهنویسان از طریق API قابلدسترسی خواهد بود.
او اضافه کرد که این مدل توسط تیمهای تخصصی کارشناسانی از حوزههای علمی مختلف که سعی در شکستن محدودیتهای مدل دارند، آزمایش شده است. موراتی گفت که مدلهای فعلی در معیارهای ایمنی کلی عملکرد بهتری نسبت به مدلهای قبلی خود داشتهاند.