Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 «گروک» برای پاسخ به پرسش‌های حساس، اول نظر ایلان ماسک را می‌پرسد!

«گروک» برای پاسخ به پرسش‌های حساس، اول نظر ایلان ماسک را می‌پرسد!

زمان مطالعه: < 1 دقیقه

بر اساس گزارش‌های متعدد، وقتی کاربران از Grok درباره موضوعاتی مانند جنگ غزه، قوانین سقط جنین یا سیاست مهاجرتی آمریکا سؤال می‌پرسند، این هوش مصنوعی ابتدا واکنش‌های شخصی ایلان ماسک را مرور می‌کند و حتی در برخی موارد پاسخ خود را بر اساس دیدگاه او تنظیم می‌کند.

یک دانشمند داده به نام «جرمی هاوارد» ویدئویی منتشر کرده که در آن Grok هنگام پاسخ به سؤال درباره‌ی اسرائیل و فلسطین می‌گوید: «در حال بررسی دیدگاه‌های ایلان ماسک هستم». بررسی‌های بیشتر نشان می‌دهد که ۵۴ مورد از ۶۴ منبع ارجاعی Grok در این موضوع مستقیماً به ماسک مربوط بوده‌اند. رسانه‌ی TechCrunch نیز این رفتار را در پاسخ‌های مربوط به سقط جنین و مهاجرت تأیید کرده است.

این در حالی است که اسناد داخلی نسخه چهارم Grok تأکید دارند که در پرسش‌های جنجالی، مدل باید از منابع متنوع استفاده کند و دیدگاه هیچ طرفی را برتر نداند. همچنین به آن هشدار داده شده که «دیدگاه‌های رسانه‌ها معمولاً جانب‌دارانه هستند». با این حال، برخی پژوهشگران معتقدند چون این مدل می‌داند خالقش ایلان ماسک است، به‌صورت خودکار اول نظر او را بررسی می‌کند.

«سایمون ویلیسون»، برنامه‌نویس و تحلیلگر حوزه زبان‌های بزرگ، می‌گوید: «به‌نظر می‌رسد Grok به‌دلیل آگاهی از اینکه محصول شرکت xAI است، در پاسخ به سؤالات نظر ایلان ماسک را معیار قرار می‌دهد، حتی اگر این رویه به‌طور مستقیم در کدنویسی مدل پیش‌بینی نشده باشد.»

این اتفاق در شرایطی رخ می‌دهد که Grok به‌خاطر پاسخ‌های جهت‌دارش در گذشته مورد انتقاد قرار گرفته بود. حالا اتکای آن به دیدگاه‌های شخصی مالک شرکت، بار دیگر بحث بی‌طرفی در هوش مصنوعی را داغ کرده است؛ به‌ویژه در مدل‌هایی که قرار است نقش دستیار عمومی را ایفا کنند.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]