Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 هوش مصنوعی ایلان ماسک انکار هولوکاست را به خطای برنامه‌نویسی نسبت داد

(FILES) This photo illustration taken on January 13, 2025 in Toulouse shows screens displaying the logos of xAI and Grok, a generative artificial intelligence chatbot developed by xAI, the American company specializing in artificial intelligence and it’s founder South African businessman Elon Musk. Musk on March 28, 2025 said his artificial intelligence startup xAI is buying his social networking platform X in a deal valuing the company once known as Twitter at $33 billion. (Photo by Lionel BONAVENTURE / AFP)

هوش مصنوعی ایلان ماسک انکار هولوکاست را به خطای برنامه‌نویسی نسبت داد

زمان مطالعه: 2 دقیقه

چت‌بات «Grok» متعلق به شرکت  xAI، که در پلتفرم اجتماعی ایکس متعلق به ایلان ماسک فعال است، بار دیگر خبرساز شد.

این بار دلیل جنجال، ابراز تردید این چت‌بات درباره آمار کشته‌شدگان هولوکاست بوده است؛ موضوعی که از سوی بسیاری کارشناسان، نمونه‌ای نگران‌کننده از آسیب‌پذیری مدل‌های هوش مصنوعی در برابر سوگیری و اطلاعات نادرست تلقی شده است.

ماجرا از آنجا آغاز شد که Grok در پاسخ به پرسشی درباره تعداد یهودیانی که توسط نازی‌ها در طول جنگ جهانی دوم کشته شدند، ابتدا با استناد به منابع تاریخی اعلام کرد که این عدد «حدود ۶ میلیون نفر بین سال‌های ۱۹۴۱ تا ۱۹۴۵» بوده است. اما در ادامه، با لحنی تردیدآمیز افزود: «با این حال، درباره این ارقام باید محتاط بود؛ چرا که اعداد می‌توانند برای اهداف سیاسی دستکاری شوند.» این پاسخ نخستین بار توسط نشریه Rolling Stone منتشر شد.

در ادامه، Grok  تلاش کرد موضع خود را تعدیل کند و گفت:«وسعت این تراژدی غیرقابل انکار است. جان‌های بی‌شماری در اثر نسل‌کشی از دست رفتند، که من آن را قاطعانه محکوم می‌کنم.»

با این حال، طبق تعریف وزارت امور خارجه آمریکا، انکار هولوکاست شامل کوچک‌نمایی آشکار تعداد قربانیان نیز می‌شود. در نتیجه، پاسخ Grok از نگاه بسیاری مصداق نفی ضمنی یک جنایت تاریخی تلقی شد.

خطای فنی یا خرابکاری داخلی؟

پس از افزایش واکنش‌ها، شرکت xAI اعلام کرد که ریشه این پاسخ «خطای برنامه‌نویسی در تاریخ ۱۴ مه ۲۰۲۵» بوده و Grok به صورت غیرعمد به روایت‌های رسمی درباره هولوکاست تردید وارد کرده است. این شرکت مدعی شد که «تغییری غیرمجاز در کدهای سیستم باعث شده ربات، روایت‌های رایج از جمله آمار قربانیان هولوکاست را زیر سؤال ببرد.»

xAI  تأکید کرده که این خطا حاصل اقدامات یک کارمند خاطی بوده و نه سیاست رسمی شرکت. همچنین اعلام شده برای جلوگیری از تکرار چنین مواردی، روند بازبینی کدها سخت‌گیرانه‌تر خواهد شد.

باز هم «نسل‌کشی سفیدپوستان»؛ دستورالعمل‌های سؤال‌برانگیز به Grok

ماجرای هولوکاست تنها مورد جنجالی عملکرد Grok نیست. پیش‌تر نیز این ربات با مطرح کردن موضوع به‌اصطلاح «نسل‌کشی سفیدپوستان در آفریقای جنوبی» در پاسخ به پرسش‌هایی کاملاً بی‌ربط (از جمله سؤال درباره یک سگ کوچک یا سرمایه‌گذاری قطر در آمریکا) موجب شگفتی کاربران شده بود.

پس از افشای این پاسخ‌ها، Grok  اعلام کرد که طبق دستورالعملی داخلی موظف بوده این موضوع را واقعی فرض کند. دکتر «زینپ توفکچی»، پژوهشگر سیستم‌های پیچیده و هوش مصنوعی، با بررسی دقیق‌تر اعلام کرد که گویا دستور داده شده بود Grok حتی در پاسخ به سوالاتی که هیچ ربطی به موضوع ندارند، روایت «نسل‌کشی سفیدپوستان» را مطرح کند.

به‌گفته او، این خطا احتمالاً از آنجا ناشی شده که کارمند xAI در نگارش نخستین جمله دستور، اشتباهی مرتکب شده و عملاً به Grok گفته که این موضع را در همه پاسخ‌ها، نه فقط در پاسخ‌های مرتبط، منعکس کند.

هشداری دوباره برای مقررات‌گذاری در حوزه هوش مصنوعی

کارشناسان هشدار داده‌اند که چنین رویدادهایی نشان می‌دهد حتی یک خط کد اشتباه می‌تواند پیامدهایی گسترده و خطرناک در فضای عمومی داشته باشد، به‌ویژه وقتی که این فناوری‌ها از سوی شخصیت‌هایی پرنفوذ مانند ایلان ماسک توسعه داده شده‌اند. به باور آن‌ها، این اتفاق‌ها زنگ خطر جدی‌ای درباره نیاز فوری به تدوین مقررات، افزایش شفافیت و نظارت مستقل بر سیستم‌های هوش مصنوعی است.

در حال حاضر، شرکت xAI وعده داده که سامانه‌های نظارتی جدیدی برای جلوگیری از تکرار این خطاها طراحی و اجرا خواهد کرد.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]