(FILES) This photo illustration taken on January 13, 2025 in Toulouse shows screens displaying the logos of xAI and Grok, a generative artificial intelligence chatbot developed by xAI, the American company specializing in artificial intelligence and it’s founder South African businessman Elon Musk. Musk on March 28, 2025 said his artificial intelligence startup xAI is buying his social networking platform X in a deal valuing the company once known as Twitter at $33 billion. (Photo by Lionel BONAVENTURE / AFP)
هوش مصنوعی ایلان ماسک انکار هولوکاست را به خطای برنامهنویسی نسبت داد
چتبات «Grok» متعلق به شرکت xAI، که در پلتفرم اجتماعی ایکس متعلق به ایلان ماسک فعال است، بار دیگر خبرساز شد.
این بار دلیل جنجال، ابراز تردید این چتبات درباره آمار کشتهشدگان هولوکاست بوده است؛ موضوعی که از سوی بسیاری کارشناسان، نمونهای نگرانکننده از آسیبپذیری مدلهای هوش مصنوعی در برابر سوگیری و اطلاعات نادرست تلقی شده است.
ماجرا از آنجا آغاز شد که Grok در پاسخ به پرسشی درباره تعداد یهودیانی که توسط نازیها در طول جنگ جهانی دوم کشته شدند، ابتدا با استناد به منابع تاریخی اعلام کرد که این عدد «حدود ۶ میلیون نفر بین سالهای ۱۹۴۱ تا ۱۹۴۵» بوده است. اما در ادامه، با لحنی تردیدآمیز افزود: «با این حال، درباره این ارقام باید محتاط بود؛ چرا که اعداد میتوانند برای اهداف سیاسی دستکاری شوند.» این پاسخ نخستین بار توسط نشریه Rolling Stone منتشر شد.
در ادامه، Grok تلاش کرد موضع خود را تعدیل کند و گفت:«وسعت این تراژدی غیرقابل انکار است. جانهای بیشماری در اثر نسلکشی از دست رفتند، که من آن را قاطعانه محکوم میکنم.»
با این حال، طبق تعریف وزارت امور خارجه آمریکا، انکار هولوکاست شامل کوچکنمایی آشکار تعداد قربانیان نیز میشود. در نتیجه، پاسخ Grok از نگاه بسیاری مصداق نفی ضمنی یک جنایت تاریخی تلقی شد.
خطای فنی یا خرابکاری داخلی؟
پس از افزایش واکنشها، شرکت xAI اعلام کرد که ریشه این پاسخ «خطای برنامهنویسی در تاریخ ۱۴ مه ۲۰۲۵» بوده و Grok به صورت غیرعمد به روایتهای رسمی درباره هولوکاست تردید وارد کرده است. این شرکت مدعی شد که «تغییری غیرمجاز در کدهای سیستم باعث شده ربات، روایتهای رایج از جمله آمار قربانیان هولوکاست را زیر سؤال ببرد.»
xAI تأکید کرده که این خطا حاصل اقدامات یک کارمند خاطی بوده و نه سیاست رسمی شرکت. همچنین اعلام شده برای جلوگیری از تکرار چنین مواردی، روند بازبینی کدها سختگیرانهتر خواهد شد.
باز هم «نسلکشی سفیدپوستان»؛ دستورالعملهای سؤالبرانگیز به Grok
ماجرای هولوکاست تنها مورد جنجالی عملکرد Grok نیست. پیشتر نیز این ربات با مطرح کردن موضوع بهاصطلاح «نسلکشی سفیدپوستان در آفریقای جنوبی» در پاسخ به پرسشهایی کاملاً بیربط (از جمله سؤال درباره یک سگ کوچک یا سرمایهگذاری قطر در آمریکا) موجب شگفتی کاربران شده بود.
پس از افشای این پاسخها، Grok اعلام کرد که طبق دستورالعملی داخلی موظف بوده این موضوع را واقعی فرض کند. دکتر «زینپ توفکچی»، پژوهشگر سیستمهای پیچیده و هوش مصنوعی، با بررسی دقیقتر اعلام کرد که گویا دستور داده شده بود Grok حتی در پاسخ به سوالاتی که هیچ ربطی به موضوع ندارند، روایت «نسلکشی سفیدپوستان» را مطرح کند.
بهگفته او، این خطا احتمالاً از آنجا ناشی شده که کارمند xAI در نگارش نخستین جمله دستور، اشتباهی مرتکب شده و عملاً به Grok گفته که این موضع را در همه پاسخها، نه فقط در پاسخهای مرتبط، منعکس کند.
هشداری دوباره برای مقرراتگذاری در حوزه هوش مصنوعی
کارشناسان هشدار دادهاند که چنین رویدادهایی نشان میدهد حتی یک خط کد اشتباه میتواند پیامدهایی گسترده و خطرناک در فضای عمومی داشته باشد، بهویژه وقتی که این فناوریها از سوی شخصیتهایی پرنفوذ مانند ایلان ماسک توسعه داده شدهاند. به باور آنها، این اتفاقها زنگ خطر جدیای درباره نیاز فوری به تدوین مقررات، افزایش شفافیت و نظارت مستقل بر سیستمهای هوش مصنوعی است.
در حال حاضر، شرکت xAI وعده داده که سامانههای نظارتی جدیدی برای جلوگیری از تکرار این خطاها طراحی و اجرا خواهد کرد.