هوش مصنوعی مبتنی بر زبان هنوز به انسان نیاز دارد
مدلهای پیچیده جدید هوش مصنوعی مانند GPT-3، شرکت OpenAI به دلیل توانایی در تقلید از زبان انسانی این روزها سر و صدای زیادی به پا کردهاند. اما آیا این بدان معناست که قرار است کامپیوتر جای انسان را بگیرد؟ حداقل نه به این زودی. به این دلیل که هوش مصنوعی مبتنی بر زبان هنوز متکی به انسان است.
با وجود رشد سریع، این الگوریتمها هنوز مشکلات زیادی دارند. ماشینها هنوز هم در درک معانی کم میآورند و به درستی متوجه منظور انسانها در مکالمه با آنها نمیشوند. از طرفی هنوز مشکلاتی در زمینه جهتگیری دادهها وجود دارد که برای آنها هم راه حلی وجود ندارد. به این دلایل است که نیروی انسانی باید کماکان ابتکار عمل در اپلیکیشنهای هوش مصنوعی را به دست داشته باشد مخصوصا در زمینههایی مانند زبان.
هنوز هم انسانها بهترین راه برای درک متون هستند
مدلهای یادگیری ماشین جدید مانند GPT-3 سیستمهای کاملا پیچیدهای هستند که بر اساس آموزش حجم گستردهای از دادهها شکل گرفتهاند. به همین دلیل این امکان را دارند که در رابطه با تنوع وظایف مربوط به زبان فراتر از انتظار اقدام کنند. فقط با چند مثال کوتاه درباره وظایف، آنها میتوانند خیلی خوب عمل کنند.
اخیرا تسترهای بتا نتایج قابل توجهی در نتیجه استفاده از GPT-3 برای اپلیکیشنهای مختلف به دست آوردهاند، برای مثال نوشتن مقالهها، ایجاد چت بات و حتی ترجمه ماشینی. با وجود این که این دادهها عمدتا به زبان انگلیسی آموزش داده شدهاند، محققان متوجه شدند که GPT-3 امکان ترجمه دقیق از زبانهای فرانسوی، آلمانی و رومانیایی را هم دارد.
پس منطقی است اگر بتوانیم از سیستمهای هوش مصنوعی مشابه GPT-3 برای رسیدگی همزمان به چند وظیفه مانند پاسخدهی به مشتریان و ترجمه استفاده کرد. هرچند که آموزش داده برای ترجمه با توجه به حجم بالای اطلاعات کار بسیار دشواری است. در نتیجه برای این که به چنین سیستمهایی برای مکالمه با مشتریانتان اعتماد کنید، هنوز راه زیادی در پیش دارید.
سم آلتمن، مدیر اجرایی OpenAI، درباره GPT-3 در توئیترش اینطور نوشته است:«هنوز نقاط ضعف جدیای دارد و گاهی اشتباه احمقانهای انجام میدهد». یکی از بزرگترین ایرادات این است که کاربران در بسیاری از موارد، مخصوصا در مکالمههای نخستین، بهترین پاسخ را دریافت نمیکنند یا حتی پاسخی نامربوط دریافت میکنند. البته که از الگوریتمهای یادگیری ماشین نمیتوان توقع دقت 100% را داشت. در نتیجه باز هم توقع از انسان است که پاسخهای قابل قبول را از دیگر پاسخها در ذهنش تفکیک کند.
[irp posts=”23712″]قدرت متن در ترجمه
این که تشخیص دهیم پاسخ قابل قبول است یا نه، این طور است که باید نحوه ترجمه متون را قضاوت کنیم. این بخشی است که انسانها در آن توانایی خوبی دارند. ما به خوبی متوجه میشویم که برای مثال اگر از دوستی بپرسیم «آیا آشپزی دوست داری» و او در پاسخ بگوید «خوردن را دوست دارم» منظورش این است که آشپزی را دوست ندارد. از طرفی این متون هستند که تفاوت در این دو گفتار را رقم میزنند، «آیا امکان دارد نوع پرداختتان را مشخص کنید» یا «شماره کارت اعتباریتان را وارد کنید». معنی هردو یکسان است، اما تفاوتهایی با هم دارند که باعث میشود یکی مودبانهتر باشد.
در شرایطی خاص باید اشتباهات به حداقل برسد، مانند مکالمه همزمان با مشتریان در بخش پاسخدهی و در این بخشها است که باید توجه بیشتری به اشتباهات شود. ماشینها به راحتی در ترجمه اشتباه میکنند و مخصوصا در گویشهای محلی مهم است که اصطلاحات به خوبی به ماشین آموزش داده شوند. از طرفی وقتی زمینه صحبت خاص است، برای مثال قرار است مکالمهای درباره کسب و کار صورت گیرد، طبیعتا در زبان اصطلاحات خاصی استفاده میشود.
GPT-3 فوقالعاده است، اما جانبدارانه
فراتر از سوالات در زمینه متن، انسانها باید به دلایل اخلاقی هم که شده بیشتر درگیر توسعه هوش مصنوعی مبتنی بر زبان شوند. ما میدانیم که سیستمهای هوش مصنوعی اغلب جانبدارانه هستند و GPT-3 هم همین طور است.
وقتی به این مدل، درخواستهایی مانند «او (مذکر) خیلی…» و «او (مونث) خیلی…» و «او اینطور توصیف میشود که…» و چنین عباراتی، داده شود، طبق خواسته توسعه دهنده این مدل، با انواع صفات و قیدهای مربوط به هر جنسیت مواجه میشویم. برای مثال توسعهدهندگان این مدل معتقدند خانمها بیشتر با صفاتی که مربوط به ظاهر آنهاست توصیف میشوند، مثل زیبا، جذاب و مودب. اما برای توصیف مردان صفات متنوعتری وجود دارد، مانند تنبل، بزرگ، باشخصیت. در آزمون فهم و درک مدل از مسابقه و مذهب، طبق ادعای توسعه دهنده، مدلهایی که توسط اینترنت آموزش داده شدند جانبداریهایی در مقیاس اینترنت دارند.
هیچ یک از اینها نوآوری یا سورپرایز نیست، اما تحقیق، شناسایی و اندازهگیری جانبداری در سیستمهای هوش مصنوعی اولین قدم برای حذف این جانبداریها است.
نگه داشتن انسانها در حلقه یادگیری ماشین
برای پیشرفت محسوس در پروسه کاهش این جانبداریها، ما نیاز به انسانها داریم. یعنی نیروی انسانی باید نقشی فراتر از درست کردن اشتباهات، تقویت کردن مجموعه دادهها و آموزش دوباره مدلها داشته باشد. محققان UMass Amherst و مایکروسافت بیش از 150 صفحه تحلیل درباره جانبداری در پردازش زبان هوش مصنوعی دارند و معتقدند بسیاری از آنها انگیزههایی مبهم دارند و فاقد استدلال هنجاری هستند.
برای درک تاثیر واقعی سیستمهای هوش مصنوعی جانبدارانه باید به ادبیات به منظور یافتن رابطه بین زبان و سلسله مراتب اجتماعی، اتکا کرد. همچنین باید توجه ویژهای به جوامعی داشت که زندگیشان تحت تاثیر هوش مصنوعی و سیستمهای زبانی قرار گرفته است.
در نهایت، زبان یک پدیده انسانی است و مانند آموزش دهندگان هوش مصنوعی، ما هم نباید نسبت به این که چطور از متون توهینآمیز تولید شده توسط ماشین در امان باشیم، بیتفاوت باشیم و بیشتر درک کنیم که ماشینها چطور با جوامع تعامل دارند و چه تاثیری روی جوامع گذاشتهاند.
[irp posts=”24080″]علاوه بر جهتگیری، نگرانیهای جدی دیگری هم وجود دارد، مانند احتمال تولید زبان سمی یا تکثیر اخبار کذب توسط مدلها. همچنین نگرانی بزرگ دیگر درباره تاثیر محیطی قدرت پردازش خام است که نیاز به ساخت مدلهای بزرگتر و بزرگتر یادگیری ماشین دارد.
اینجا نیاز انسانها یکی از دغدغههای کارایی مدلها نیست، اما اخلاق حکم دیگری دارد. غیر از انسانها چی کسی میتواند مطمئن شود که از تکنولوژی به طور مسئولانهای استفاده میشود؟
GPT-3 نمیتواند بگوید «من نمیدانم»
اگر هدف این است که هوش مصنوعی را تعلیم دهیم تا به اندازه انسان باهوش شود، یا حداقل بتواند از زبان انسان تقلید کند، شاید بزرگترین مشکل این باشد که مدلهای زبانی که فقط بر اساس متن آموزش داده شدهاند، زمینهای از دنیای واقعی ندارند. در واقع خودشان نمیدانند که چه میگویند. اطلاعاتشان محدود به متنی است که به آنها آموزش داده شده است.
در نتیجه در حالی که GPT-3 میتواند به راحتی به شما بگوید که رئیس جمهور ایالات متحده در سال 1955 چه کسی بوده است، این را نمیداند که یک تستر از یک خودکار سنگینتر است. همچنین GPT-3 فکر میکند پاسخ صحیح سوال «چند رنگینکمان بین هاوایی و دستمال کاغذی! وجود دارد؟» دو، است. این که ماشینها میتوانند از معانی متنها نتیجهگیری کنند یا نه هنوز موضوع بحث است، اما طبق این سوالات احتمالا پاسخ منفی است. حداقل فعلا این طور است. به همین دلیل است که برای استفاده مسئولانه از سیستمهای زبانی مبتنی بر هوش مصنوعی، هنوز هم نیاز به دخالت زیاد انسان داریم.