مدل هوش مصنوعی OpenAI توهم میزند
شرکت OpenAI در سال ۲۰۲۲ از مجموعه مدلهای «ویسپر» رونمایی کرد؛ مدل هوش مصنوعی که برای رونویسی از گفتار توسعه یافته است. به تازگی مشخص شده است که این مدل هوش مصنوعی با مشکلات جدی دست و پنجه نرم میکند.
بر اساس گزارش مهندسان نرمافزار، توسعهدهندگان و محققان دانشگاهی، ابزارهای هوش مصنوعی مولد بهصورت کلی تمایل به هذیان گفتن دارند؛ اما نکته عجیب درمورد ابزار ویسپر این است که در رونویسی سخنان هم مشکلاتی دارد. در حالی که انتظار میرود ویسپر دقیقاً سخنان گفتهشده را رونویسی کند؛ اما این ابزار نمیتواند سخنان را بهدقت رونویسی کند. مشکلی که به آن اشاره میشود بسیار جدی است و مربوط به اشتباهات مرسوم این نوع مدلها در نوشتن کلمه مشابه به جای کلمه اصلی یا غلط املایی نیست.
بنا بر گفته کاربران این مدل هوش مصنوعی، این سرویس مواردی همچون تفسیرهای نژادی و درمانهای پزشکی خیالی را در رونویسیهای خود میگنجاند که میتواند بسیار خطرناک باشد. هماکنون بسیاری از بیمارستانها و مراکز درمانی مختلف از این ابزار در زمینههای پزشکی استفاده میکنند و رونویسی صحیح ممکن است به فاجعه منجر شود.
یکی از این محققان از دانشگاه میشیگان میگوید ابزار ویسپر در ۸ مورد از ۱۰ مورد رونویسی، دچار توهم شده است. همچنین مهندس یادگیری ماشینی که بیش از ۱۰۰ ساعت از رونویسیهای ویسپر را مطالعه کرده، میگوید در بیش از نیمی از این رونویسیها موارد اشتباه و هذیان دیده میشود. علاوه بر این، توسعهدهنده نیز میگوید در تمام ۲۶۰۰ ساعت رونویسیهای این ابزار توهم پیدا کرده است.
OpenAI به این گزارشها واکنش نشان داد، سخنگوی این شرکت گفت که به شکل مداوم برای بهبود دقت مدلها و کاهش توهمها تلاش میکنند. او همچنین گفت سیاستهای آنها استفاده از ویسپر را «در زمینههای خاص تصمیمگیری با ریسک بالا» ممنوع میکند. این شرکت درنهایت از محققان برای بهاشتراکگذاری یافتههای خود تقدیر کرد.