40 گام به سوی آینده‌ای هوشمند - مجموعه وبینارهای رایگان در حوزه هوش مصنوعی
Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 مدل‌های جدید خطر بیشتری برای سوءاستفاده در ساخت سلاح‌های بیولوژیکی دارند

مدل‌های جدید خطر بیشتری برای سوءاستفاده در ساخت سلاح‌های بیولوژیکی دارند

شرکت OpenAI اعلام کرده است که مدل‌های جدید این شرکت خطر بیشتری برای سوءاستفاده در ساخت سلاح‌های بیولوژیکی دارند. این هشدارها زمانی مطرح می‌شود که محققان ایمنی نسبت به خطرات بالقوه فناوری‌های پیشرفته هشدار داده‌اند.

این شرکت که به تازگی  مدل جدید خود را با نام o1 معرفی و اعلام کرده این مدل دارای قابلیت‌های تقویت شده‌ای در زمینه استدلال، حل مسائل پیچیده ریاضی و پاسخ به سوالات و تحقیقاتی علمی هستند. این توانایی‌ها به عنوان یک پیشرفت مهم در جهت ایجاد هوش عمومی مصنوعی (ماشین‌هایی با توانایی‌های شناختی انسانی) محسوب می‌شود.

در توضیحات OpenAI، در مورد نحوه عملکرد این هوش مصنوعی، آمده است که مدل‌های جدید دارای خطر متوسط در زمینه سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) هستند. این درجه متوسط، بالاترین رتبه‌ای است که OpenAI تاکنون به مدل‌های خود داده است و به این معناست که این فناوری به طور معناداری توانایی افراد متخصص در زمینه‌های مرتبط با CBRN را برای ایجاد تهدیدهای شناخته شده CBRN افزایش می‌دهد.

به گفته کارشناسان نرم‌افزار هوش مصنوعی با قابلیت‌های پیشرفته‌تر، مانند توانایی انجام استدلال‌های مرحله‌به‌مرحله در دست افرادی با نیت بد، خطر بیشتری برای سوءاستفاده ایجاد می‌کند.

این هشدارها در حالی منتشر می‌شود که شرکت‌های فناوری از جمله گوگل، متا و Anthropic در حال رقابت برای ساخت و بهبود سیستم‌های هوش مصنوعی پیچیده هستند، چرا که این شرکت‌ها به دنبال ایجاد نرم‌افزاری‌اند که به عنوان عامل‌هایی عمل کند که به انسان‌ها در انجام وظایف و مدیریت زندگی روزمره کمک می‌کند. این عامل‌های هوش مصنوعی همچنین به عنوان منبع درآمد بالقوه برای شرکت‌هایی دیده می‌شوند که تاکنون با هزینه‌های سنگین آموزش و اجرای مدل‌های جدید دست‌وپنجه نرم می‌کنند.

این امر باعث شده است تلاش‌هایی برای رگولاتوری بهتر شرکت‌های هوش مصنوعی صورت گیرد. در کالیفرنیا، یک لایحه جنجالی با نام SB 1047 مطرح شده که می‌تواند شرکت‌های تولیدکننده مدل‌های پرهزینه را ملزم کند تا اقداماتی برای کاهش خطر استفاده از مدل‌هایشان در توسعه سلاح‌های بیولوژیکی انجام دهند.

برخی از سرمایه‌گذاران خطرپذیر و گروه‌های فناوری، از جمله  OpenAI، هشدار داده‌اند که قانون پیشنهادی می‌تواند تأثیر منفی بر صنعت هوش مصنوعی بگذارد. فرماندار کالیفرنیا، گاوین نیوسام، باید طی روزهای آینده تصمیم بگیرد که آیا این قانون را امضا یا وتو کند.

یوشوا بنگیو، استاد علوم کامپیوتر در دانشگاه مونترال و یکی از پیشروترین دانشمندان هوش مصنوعی جهان، گفت: «اگر OpenAI واقعاً به سطح خطر متوسط برای سلاح‌های CBRN رسیده باشد، این موضوع همان‌طور که گزارش داده‌اند، اهمیت و فوریت تصویب قوانینی مانند SB 1047 را برای حفاظت از عموم مردم تقویت می‌کند».

او افزود: «با پیشرفت مدل‌های پیشرفته هوش مصنوعی به سمت هوش عمومی مصنوعی، اگر اقدامات محافظتی لازم وجود نداشته باشد، خطرات همچنان افزایش خواهند یافت. بهبود توانایی هوش مصنوعی در استدلال و استفاده از این مهارت برای فریب‌دادن، به طور ویژه خطرناک است».

میرا موراتی، مدیر ارشد فناوری  OpenAI، به فایننشال تایمز گفت که این شرکت به دلیل قابلیت‌های پیشرفته مدل‌های o1، با احتیاط بیشتری آن‌ها را به عموم ارائه می‌دهد. این محصول از طریق اشتراک‌های پرداختی ChatGPT و برای برنامه‌نویسان از طریق API قابل‌دسترسی خواهد بود.

او اضافه کرد که این مدل توسط تیم‌های تخصصی  کارشناسانی از حوزه‌های علمی مختلف که سعی در شکستن محدودیت‌های مدل دارند، آزمایش شده است. موراتی گفت که مدل‌های فعلی در معیارهای ایمنی کلی عملکرد بهتری نسبت به مدل‌های قبلی خود داشته‌اند.

منبع

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]