Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 مدل هوش مصنوعی OpenAI توهم می‌زند

مدل هوش مصنوعی OpenAI توهم می‌زند

زمان مطالعه: < 1 دقیقه

شرکت  OpenAI در سال ۲۰۲۲ از مجموعه مدل‌های «ویسپر» رونمایی کرد؛ مدل هوش مصنوعی که برای رونویسی از گفتار توسعه یافته است. به تازگی مشخص شده است که این مدل هوش مصنوعی با مشکلات جدی دست و پنجه نرم می‌کند.

بر اساس گزارش مهندسان نرم‌افزار، توسعه‌دهندگان و محققان دانشگاهی، ابزارهای هوش مصنوعی مولد به‌صورت کلی تمایل به هذیان گفتن دارند؛ اما نکته عجیب درمورد ابزار ویسپر این است که در رونویسی سخنان هم مشکلاتی دارد. در حالی که انتظار می‌رود ویسپر دقیقاً سخنان گفته‌شده را رونویسی کند؛ اما این ابزار نمی‌تواند سخنان را به‌دقت رونویسی کند. مشکلی که به آن اشاره می‌شود بسیار جدی است و مربوط به اشتباهات مرسوم این نوع مدل‌ها در نوشتن کلمه مشابه به جای کلمه اصلی یا غلط املایی نیست.

بنا بر گفته کاربران این مدل هوش مصنوعی، این سرویس مواردی همچون تفسیرهای نژادی و درمان‌های پزشکی خیالی را در رونویسی‌های خود می‌گنجاند که می‌تواند بسیار خطرناک باشد. هم‌اکنون بسیاری از بیمارستان‌ها و مراکز درمانی مختلف از این ابزار در زمینه‌های پزشکی استفاده می‌کنند و رونویسی صحیح ممکن است به فاجعه منجر شود.

مدل هوش مصنوعی OpenAI

یکی از این محققان از دانشگاه میشیگان می‌گوید ابزار ویسپر در ۸ مورد از ۱۰ مورد رونویسی، دچار توهم شده است. همچنین مهندس یادگیری ماشینی که بیش از ۱۰۰ ساعت از رونویسی‌های ویسپر را مطالعه کرده، می‌گوید در بیش از نیمی از این رونویسی‌ها موارد اشتباه و هذیان دیده می‌شود. علاوه بر این، توسعه‌دهنده نیز می‌گوید در تمام ۲۶۰۰ ساعت رونویسی‌های این ابزار توهم پیدا کرده است.

OpenAI  به این گزارش‌ها واکنش نشان داد، سخنگوی این شرکت گفت که به شکل مداوم برای بهبود دقت مدل‌ها و کاهش توهم‌ها تلاش می‌کنند. او همچنین گفت سیاست‌های آن‌ها استفاده از ویسپر را «در زمینه‌های خاص تصمیم‌گیری با ریسک بالا» ممنوع می‌کند. این شرکت درنهایت از محققان برای به‌اشتراک‌گذاری یافته‌های خود تقدیر کرد.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]