الگوهای هوش مصنوعی جدید متا، با توانایی ترجمه بیش از 4000 زبان
محققان متا مجموعهای از مدلهای هوش مصنوعی را منتشر کردند که بر اساس متون مذهبی ترجمهشده «مانند کتاب مقدس» آموزشدیدهاند؛ این متون مذهبی که بهطور گسترده ترجمهشدهاند، الگوهای هوش مصنوعی با مطالعه آنها یاد میگیرند تا چطور به بیش از ۴۰۰۰ زبان، متن تولید کنند و آنها را با کمترین اشکال به زبانهای دیگر ترجمه کنند.
متا با کمک فناوری «گفتار انبوه چندزبانه» مجموعهای از مدلهای هوش مصنوعی منتشر کرده است که میتوان از آنها برای ترجمه زبانهای مختلف استفاده کرد؛ پژوهشگران از متون مذهبی باستانی در تمدنها و سرزمینهای کهن که بهطور گسترده ترجمهشده بودند، مانند «کتابهای مقدس به زبان عبری، آرامی، عربی، آکدی، بابلی، لاتین، سانسکریت، پهلوی میانه و اوستایی کهن» برای دستیابی به نتایج بهتر الگوها استفاده کردند.
پژوهشگران متا از مجموعهای از مدلهای هوش مصنوعی رونمایی کردهاند که میتوان از آنها برای ترجمه بیش از ۴۰۰۰ زبان گوناگون استفاده کرد. مدلهای Massively Multilingual Speech که به MMS معروف هستند، فناوریهای «متن به گفتار» و «گفتار به متن» را پوشش میدهند.
این در حالی است که برنامههای پرکاربرد هوش مصنوعی، مانند ChatGPT، عمدتاً میتوانند حدود ۱۰۰ زبان را شناسایی کنند و MMS در حالت «متن به گفتار» متا میتواند خروجی تولیدی گفتار را از به بیش از ۱۱۰۰ زبان برساند؛ درحالیکه نسخه «گفتار به متن» آن میتواند به بیش از ۴۰۰۰ زبان گفتاری سخن بگوید.
به گفته متا، این مدلها میتوانند برای برنامههای «واقعیت مجازی و واقعیت افزوده» به زبان دلخواه کاربران، مورداستفاده قرار گیرند و کاملاً هوشمند در اختیار آنها باشند؛ با این روش دیگر همه کاربران متا میتوانند بهآسانی و بهراحتی با یکدیگر سخن بگویند.
جمعآوری دادههای صوتی از هزاران زبان گوناگون
پژوهشگران متا برای آنکه بتوانند از گفتارهای صوتی که به هزاران زبان گوناگون هستند، داده جمعآوری کنند، از متون مذهبی باستانی (مانند کتاب مقدس) استفاده کردهاند؛ چراکه این متون به بسیاری از زبانهای گوناگون زنده و مرده جهان ترجمهشدهاند و ترجمههای آنها نیز بهطور گستردهای برای پژوهشهای ترجمههای زبانی «مبتنی بر متن» موردمطالعه قرارگرفتهاند.
برای نمونه، متا مجموعهای از دادههای گوناگون بر پایهای از قرائت عهد جدید در کتاب مقدس (بابل) به بیش از ۱۱۰۰ زبان زنده و مرده دنیا ایجاد کرده است و بهطور متوسط برای هر زبان ۳۲ ساعت داده پایه وجود دارد تا مدلها از این دادههای بنیادین بیاموزند. البته برای تقویت این مجموعه دادههای گوناگون، پژوهشگران سخنرانیهای بدون برچسب دیگری نیز از قرائتهای مذهبی فرقههای آمریکایی مسیحی به پایگاه دادهها اضافه کردهاند تا عدد آن به ۴۰۰۰ دست یابد.
این پژوهشگران میگویند: «درحالیکه محتوای سخنرانیهای صوتی مذهبی است، ولی تجزیهوتحلیلها به ما نشان میدهد که این روش یک زبان مذهبی تولید نمیکند، هرچند که شاید جنس واژهها و ادبیات آنها کمی مذهبی و مقدس باشد».
متا هم مدلها و هم کدهای زیربنایی این پژوهش را بهعنوان منبع باز انتخاب کرده است تا همه پژوهشگران بتوانند بر روی آن کار کنند و نتیجه کار خود را روی آن بسازند.
بااینحال، شرکتِ مادرِ فیسبوک گفته است که قصد دارد پوشش مدلهای MMS را افزایش دهد تا حتی از زبانهای بیشتری در آینده پشتیبانی کند و آن را برای چالش بیان و درک گویشها، که اغلب برای فناوریهای «پردازش گفتار» دشوار است، بهکار گیرد.
MMS اولین مجموعه مدلی نیست که تعداد زیادی زبان را پوشش میدهد و رقیب متا، یعنی گوگل، قبل از این «مدل جهانی گفتار» را توسعه داده است؛ مدلی که میتواند بیش از ۳۰۰ زبان گوناگون را پشتیبانی کند.