برترین متخصصین

از سراسر دنیا

مجموعه وبینارهای مدل‌های بزرگ زبانی (LLM)

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 شرکت‌های هوش مصنوعی و عقب‌نشینی پنهانی از تعهدات ایمنی

شرکت‌های هوش مصنوعی و عقب‌نشینی پنهانی از تعهدات ایمنی

زمان مطالعه: 4 دقیقه

شرکت‌های هوش مصنوعی که در حال رقابت برای تسلط بر آینده این فناوری هستند، بر پایه داده‌ها و رفتار کاربران، مدل‌های کسب‌وکار خود را طراحی کرده‌اند. اما در حالی که این شرکت‌ها به‌شدت شما را زیر نظر دارند، ترجیح می‌دهند شما پیگیر تغییرات و فعالیت‌هایشان نباشید، به‌ویژه تغییراتی که در تعهدات اخلاقی و حریم خصوصی ایجاد کرده‌اند. این تعهدات داوطلبانه، از معدود سازوکارهای حفاظتی برای تضمین آینده‌ای ایمن در حوزه هوش مصنوعی محسوب می‌شوند.

عقب‌نشینی از تعهدات ایمنی در سایه سیاست‌های جدید

در شرایطی که دولت ترامپ به طور فعال در حال برچیدن تدابیر ایمنی هوش مصنوعی برای ترویج «سلطه آمریکایی» است و بسیاری از شرکت‌ها تیم‌های ایمنی خود را منحل کرده‌اند، مسئولیت پایش این تغییرات به عهده یک سازمان غیرانتفاعی کوچک با منابع محدود افتاده است. این سازمان، پروژه میداس (Midas Project) به رهبری «تایلر جانستون» (Tyler Johnston)، در تلاش است تا فعالیت‌های شرکت‌های هوش مصنوعی را رصد کند و تغییرات سیاست‌های آن‌ها را شناسایی کند.

جانستون و تیمش از اواسط سال ۲۰۲۴ پروژه‌ای به نام «برج دیده‌بانی ایمنی هوش مصنوعی» (AI Safety Watchtower) را راه‌اندازی کرده‌اند. این پروژه فعالیت‌های ۱۶ شرکت بزرگ، از جمله OpenAI، گوگل (Google) و آنتروپیک (Anthropic)، را زیر نظر دارد و صدها سند سیاست‌گذاری و صفحات وب را برای شناسایی تغییرات اساسی بررسی می‌کند.

جانستون می‌گوید: «اگر هر شرکت هوش مصنوعی یک گزارش تغییرات ارائه می‌کرد، نیازی به این کار نبود و خیال ما از شفافیت آن‌ها راحت بود. حالا این وظیفه به عهده سازمان‌های غیرانتفاعی و روزنامه‌نگاران افتاده است، در حالی که هیچ‌کدام ابزار کافی برای این کار ندارند.»

سیاست‌های دولت ترامپ و حذف تدابیر ایمنی

نگرانی‌های جانستون درباره کنار گذاشتن تعهدات ایمنی، در شرایطی مطرح می‌شود که دولت ترامپ به طور فعال در حال حذف تدابیر حفاظتی در حوزه هوش مصنوعی است. ترامپ در دومین روز ریاست‌جمهوری خود در این دوره، با امضای یک فرمان اجرایی، دستور ایمنی هوش مصنوعی بایدن در سال ۲۰۲۳ را لغو کرد و آن را با فرمانی جایگزین کرد که تمرکز آن بر «سلطه آمریکایی» در این حوزه بود.

در ماه مارس ۲۰۲۵، مؤسسه ملی استاندارد و فناوری (National Institute of Standards and Technology) دستورالعمل‌های جدیدی را برای دانشمندان مؤسسه ایمنی هوش مصنوعی صادر کرد که هیچ اشاره‌ای به مفاهیمی چون «ایمنی هوش مصنوعی»، «هوش مصنوعی مسئولانه» و «عدالت در هوش مصنوعی» نداشت.

با وجود تلاش‌های برخی ایالت‌ها برای تصویب قوانین مربوط به هوش مصنوعی و پیشنهاد طرح‌هایی در کنگره، هنوز هیچ قانون فدرالی برای تنظیم دقیق استفاده از این فناوری وجود ندارد. در هفته‌های اخیر، دفتر سیاست‌گذاری علم‌وفناوری ترامپ (Office of Science and Technology Policy) از شرکت‌ها و دانشگاهیان خواسته تا نظرات خود را درباره یک «برنامه اقدام هوش مصنوعی» ارائه دهند. همان‌طور که انتظار می‌رفت، سیلیکون‌ولی (Silicon Valley) خواستار رویکردی با حداقل نظارت شده است.

پروژه میداس: یک تلاش کوچک برای مقابله با تغییرات بزرگ

تایلر جانستون، بنیان‌گذار پروژه میداس، مسیر فعالیت خود در حوزه اخلاق هوش مصنوعی را از کمپین‌های حمایت از حقوق حیوانات آغاز کرد. او در گذشته موفق شده بود شرکت‌های غذایی را به استفاده از تخم‌مرغ‌های تولیدشده بدون قفس وادار کند و امیدوار بود بتواند موفقیت مشابهی را در حوزه فناوری نیز تکرار کند. این بار، هدف او فشار آوردن بر غول‌های فناوری برای پایبندی به تعهدات اخلاقی است.

پروژه میداس، با بودجه‌ای بسیار محدود و تنها چند ابزار ساده وب‌کاوی (web-scraping)، تلاش می‌کند تغییرات پنهانی شرکت‌های هوش مصنوعی را شناسایی کند. این ابزار زمانی که شرکت‌ها به‌صورت مخفیانه تعهداتشان درباره ساخت ربات‌های قاتل یا توسعه تسلیحات زیستی را حذف می‌کنند، این تغییرات را ثبت می‌کند.

تا این‌جا، دیده‌بان ایمنی هوش مصنوعی حدود ۳۰ تغییر قابل توجه را ثبت کرده است. این تغییرات در سه دسته «مهم»، «جزئی» و «اعلام‌نشده» برچسب‌گذاری شده‌اند. به‌عنوان مثال، در اکتبر ۲۰۲۳، شرکت OpenAI ارزش‌های بنیادین خود مانند «تاثیر محور بودن» را حذف کرد و آن‌ها را با ارزش‌هایی مرتبط با AGI (هوش عمومی مصنوعی) جایگزین کرد.

تغییرات نگران‌کننده در سیاست‌های شرکت‌های بزرگ

پروژه میداس همچنین تغییرات مهمی را در سیاست‌های سایر شرکت‌های بزرگ شناسایی کرده است. در ماه گذشته، گوگل نسخه‌ای جدید از چارچوب ایمنی Frontier خود منتشر کرد که در آن خطرات مربوط به خودمختاری مدل‌ها حذف شده و به‌جای آن‌ها مفهومی مبهم به نام «ریسک‌های هم‌راستایی» اضافه شده بود. از همه نگران‌کننده‌تر، عبارتی در متن جدید اضافه شده بود که نشان می‌داد گوگل تنها در صورتی چارچوب ایمنی خود را اجرا خواهد کرد که رقبایش نیز اقدامات مشابهی اتخاذ کنند.

گاهی اوقات، شرکت‌ها به هشدارهای جانستون واکنش نشان داده‌اند. به‌عنوان مثال، ابزارهای وب‌کاوی دیده‌بان متوجه شدند که شرکت آنتروپیک ارجاع به «تعهدات داوطلبانه کاخ سفید برای هوش مصنوعی ایمن» را از صفحه شفافیت خود حذف کرده است. با این حال، «جک کلارک» (Jack Clark)، یکی از بنیان‌گذاران آنتروپیک، توضیح داد که این تغییر موجب سوء‌تفاهم شده و در حال اصلاح آن هستند.

همکاری نظامی: بازتعریف تعهدات اخلاقی

یکی از مهم‌ترین تغییراتی که پروژه میداس ثبت کرده، عقب‌نشینی شرکت‌های هوش مصنوعی از مواضع ضده همکاری نظامی است. به گفته جانستون، شرکت OpenAI ابتدا همکاری خود با ارتش را با اهدافی مانند جلوگیری از خودکشی سربازان بازنشسته و پشتیبانی از امنیت سایبری وزارت دفاع توجیه کرد. اما تا نوامبر ۲۰۲۴، این شرکت در حال توسعه پهپادهای خودمختار بود. جانستون این تغییر جهت را نمونه‌ای کلاسیک از «استراتژی در باز کردن پا» توصیف می‌کند. گوگل نیز در اوایل سال جاری همین مسیر را در پیش گرفت و محدودیت‌های نظامی خود را لغو کرد.

جانستون می‌گوید: «شرکت‌ها به طور جدی فشار رقابت جهانی در حوزه هوش مصنوعی را احساس می‌کنند. طرز فکر آن‌ها این‌گونه است که: اگر ما با ارتش‌ها همکاری نکنیم، رقبای بی‌اخلاق‌تری این کار را خواهند کرد.»

آیا صنعت هوش مصنوعی به تعهدات خود پایبند است؟

در فوریه ۲۰۲۵، پروژه میداس ابزار «ردیاب سئول» (Seoul Tracker) را راه‌اندازی کرد تا ارزیابی کند که آیا شرکت‌ها به وعده‌هایی که در نشست ایمنی هوش مصنوعی سال ۲۰۲۴ در سئول داده بودند پایبند مانده‌اند. نتایج این بررسی نشان داد که بسیاری از شرکت‌ها ضرب‌الاجل فوریه برای اجرای سیاست‌های مسئولانه را نادیده گرفته‌اند و برخی دیگر، نسخه‌های سطحی و بی‌محتوایی از این سیاست‌ها ارائه کرده‌اند.

بر اساس سیستم نمره‌دهی مشابه نمرات مدرسه، شرکت آنتروپیک بالاترین نمره (B منفی) را دریافت کرد، در حالی که شرکت‌هایی مانند آی‌بی‌ام، اینفلکشن ای‌آی و میسترال ای‌آی نمره مردودی F گرفتند.

نتیجه‌گیری: آیا نظارت کافی وجود دارد؟

در حالی که پروژه میداس تلاش می‌کند تغییرات پنهانی شرکت‌های هوش مصنوعی را افشا کند، هنوز این صنعت با کمبود شفافیت مواجه است. جانستون معتقد است که مسئولیت اعلام تغییرات سیاست‌ها باید بر عهده خود شرکت‌ها باشد، نه سازمان‌های کوچک یا روزنامه‌نگاران. اما آیا این شرکت‌ها واقعاً آماده‌اند شفافیت را در اولویت قرار دهند؟

جانستون با نگرانی می‌گوید: «من نگرانم که برخی مقام‌های دولتی، این عقب‌نشینی‌های اخلاقی را به‌عنوان پیشرفت ببینند، نه مشکل.»

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]