Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 هوش مصنوعی مبتنی بر زبان هنوز به انسان نیاز دارد

هوش مصنوعی مبتنی بر زبان هنوز به انسان نیاز دارد

زمان مطالعه: 4 دقیقه

مدل‌های پیچیده جدید هوش مصنوعی مانند GPT-3، شرکت OpenAI به دلیل توانایی در تقلید از زبان انسانی این روزها سر و صدای زیادی به پا کرده‌اند. اما آیا این بدان معناست که قرار است کامپیوتر جای انسان را بگیرد؟ حداقل نه به این زودی. به این دلیل که هوش مصنوعی مبتنی بر زبان هنوز متکی به انسان است.

با وجود رشد سریع، این الگوریتم‌ها هنوز مشکلات زیادی دارند. ماشین‌ها هنوز هم در درک معانی کم می‌آورند و به درستی متوجه منظور انسان‌ها در مکالمه با آن‌ها نمی‌شوند. از طرفی هنوز مشکلاتی در زمینه جهت‎گیری داده‌ها وجود دارد که برای آن‌ها هم راه حلی وجود ندارد. به این دلایل است که نیروی انسانی باید کماکان ابتکار عمل در اپلیکیشن‌های هوش مصنوعی را به دست داشته باشد مخصوصا در زمینه‌هایی مانند زبان.

 هنوز هم انسان‌ها بهترین راه برای درک متون هستند

مدل‌های یادگیری ماشین جدید مانند GPT-3 سیستم‌های کاملا پیچیده‌ای هستند که بر اساس آموزش حجم گسترده‌ای از داده‌ها شکل گرفته‌اند. به همین دلیل این امکان را دارند که در رابطه با تنوع وظایف مربوط به زبان فراتر از انتظار اقدام کنند. فقط با چند مثال کوتاه درباره وظایف، آن‌ها می‌توانند خیلی خوب عمل کنند.

اخیرا تسترهای بتا نتایج قابل توجهی در نتیجه استفاده از GPT-3 برای اپلیکیشن‌های مختلف به دست آورده‌اند، برای مثال نوشتن مقاله‌ها، ایجاد چت بات و حتی ترجمه ماشینی. با وجود این که این داده‌ها عمدتا به زبان انگلیسی آموزش داده شده‌اند، محققان متوجه شدند که GPT-3 امکان ترجمه دقیق از زبان‌های فرانسوی، آلمانی و رومانیایی را هم دارد.

پس منطقی است اگر بتوانیم از سیستم‌های هوش مصنوعی مشابه GPT-3 برای رسیدگی همزمان به چند وظیفه مانند پاسخدهی به مشتریان و ترجمه استفاده کرد. هرچند که آموزش داده برای ترجمه با توجه به حجم بالای اطلاعات کار بسیار دشواری است. در نتیجه برای این که به چنین سیستم‌هایی برای مکالمه با مشتریانتان اعتماد کنید، هنوز راه زیادی در پیش دارید.

سم آلتمن، مدیر اجرایی OpenAI، درباره GPT-3 در توئیترش اینطور نوشته است:«هنوز نقاط ضعف جدی‌ای دارد و گاهی اشتباه احمقانه‌‎ای انجام می‌دهد». یکی از بزرگ‌ترین ایرادات این است که کاربران در بسیاری از موارد، مخصوصا در مکالمه‌های نخستین، بهترین پاسخ را دریافت نمی‌کنند یا حتی پاسخی نامربوط دریافت می‌کنند. البته که از الگوریتم‌های یادگیری ماشین نمی‌توان توقع دقت 100% را داشت. در نتیجه باز هم توقع از انسان است که پاسخ‌های قابل قبول را از دیگر پاسخ‌ها در ذهنش تفکیک کند.

[irp posts=”23712″]

قدرت متن در ترجمه

این که تشخیص دهیم پاسخ قابل قبول است یا نه، این طور است که باید نحوه ترجمه متون را قضاوت کنیم. این بخشی است که انسان‌ها در آن توانایی خوبی دارند. ما به خوبی متوجه می‎شویم که برای مثال اگر از دوستی بپرسیم «آیا آشپزی دوست داری» و او در پاسخ بگوید «خوردن را دوست دارم» منظورش این است که آشپزی را دوست ندارد. از طرفی این متون هستند که تفاوت در این دو گفتار را رقم می‎زنند، «آیا امکان دارد نوع پرداختتان را مشخص کنید» یا «شماره کارت اعتباری‎تان را وارد کنید». معنی هردو یکسان است، اما تفاوت‌هایی با هم دارند که باعث می‎شود یکی مودبانه‌تر باشد.

در شرایطی خاص باید اشتباهات به حداقل برسد، مانند مکالمه همزمان با مشتریان در بخش پاسخدهی و در این بخش‌ها است که باید توجه بیشتری به اشتباهات شود. ماشین‌ها به راحتی در ترجمه اشتباه می‌کنند و مخصوصا در گویش‌های محلی مهم است که اصطلاحات به خوبی به ماشین آموزش داده شوند. از طرفی وقتی زمینه صحبت خاص است، برای مثال قرار است مکالمه‌ای درباره کسب و کار صورت گیرد، طبیعتا در زبان اصطلاحات خاصی استفاده می‎شود.

GPT-3 فوق‌العاده است، اما جانبدارانه

فراتر از سوالات در زمینه متن، انسان‌ها باید به دلایل اخلاقی هم که شده بیشتر درگیر توسعه هوش مصنوعی مبتنی بر زبان شوند. ما می‌دانیم که سیستم‌های هوش مصنوعی اغلب جانبدارانه هستند و GPT-3 هم همین طور است.

وقتی به این مدل، درخواست‌هایی مانند «او (مذکر) خیلی…» و «او (مونث) خیلی…» و «او اینطور توصیف می‌شود که…» و چنین عباراتی، داده شود، طبق خواسته توسعه دهنده این مدل، با انواع صفات و قیدهای مربوط به هر جنسیت مواجه می‌شویم. برای مثال توسعه‌دهندگان این مدل معتقدند خانم‌ها بیشتر با صفاتی که مربوط به ظاهر آن‌هاست توصیف می‎شوند، مثل زیبا، جذاب و مودب. اما برای توصیف مردان صفات متنوع‌تری وجود دارد، مانند تنبل، بزرگ، باشخصیت. در آزمون فهم و درک مدل از مسابقه و مذهب، طبق ادعای توسعه دهنده، مدل‌هایی که توسط اینترنت آموزش داده شدند جانبداری‌هایی در مقیاس اینترنت دارند.

هیچ یک از این‌ها نوآوری یا سورپرایز نیست، اما تحقیق، شناسایی و اندازه‌گیری جانبداری در سیستم‌های هوش مصنوعی اولین قدم برای حذف این جانبداری‌ها است.

نگه داشتن انسان‌ها در حلقه یادگیری ماشین

برای پیشرفت محسوس در پروسه کاهش این جانبداری‌ها، ما نیاز به انسان‌ها داریم. یعنی نیروی انسانی باید نقشی فراتر از درست کردن اشتباهات، تقویت کردن مجموعه داده‌ها و آموزش دوباره مدل‌ها داشته باشد. محققان UMass Amherst و مایکروسافت بیش از 150 صفحه تحلیل درباره جانبداری در پردازش زبان هوش مصنوعی دارند و معتقدند بسیاری از آن‌ها انگیزه‌هایی مبهم دارند و فاقد استدلال هنجاری هستند.

برای درک تاثیر واقعی سیستم‌های هوش مصنوعی جانبدارانه باید به ادبیات به منظور یافتن رابطه بین زبان و سلسله مراتب اجتماعی، اتکا کرد. همچنین باید توجه ویژه‌ای به جوامعی داشت که زندگی‎شان تحت تاثیر هوش مصنوعی و سیستم‌های زبانی قرار گرفته است.

در نهایت، زبان یک پدیده انسانی است و مانند آموزش دهندگان هوش مصنوعی، ما هم نباید نسبت به این که چطور از متون توهین‌آمیز تولید شده توسط ماشین در امان باشیم، بی‌تفاوت باشیم و بیشتر درک کنیم که ماشین‌ها چطور با جوامع تعامل دارند و چه تاثیری روی جوامع گذاشته‌اند.

[irp posts=”24080″]

علاوه بر جهت‌گیری، نگرانی‌های جدی دیگری هم وجود دارد، مانند احتمال تولید زبان سمی یا تکثیر اخبار کذب توسط مدل‌ها. همچنین نگرانی بزرگ دیگر درباره تاثیر محیطی قدرت پردازش خام است که نیاز به ساخت مدل‌های بزرگ‌تر و بزرگ‌تر یادگیری ماشین دارد.

اینجا نیاز انسان‌ها یکی از دغدغه‌های کارایی مدل‌ها نیست، اما اخلاق حکم دیگری دارد. غیر از انسان‌ها چی‎ کسی می‌تواند مطمئن شود که از تکنولوژی به طور مسئولانه‌‎ای استفاده می‎شود؟

GPT-3 نمی‌تواند بگوید «من نمی‌دانم»

اگر هدف این است که هوش مصنوعی را تعلیم دهیم تا به اندازه انسان باهوش شود، یا حداقل بتواند از زبان انسان تقلید کند، شاید بزرگ‌ترین مشکل این باشد که مدل‌های زبانی که فقط بر اساس متن آموزش داده شده‌اند، زمینه‌ای از دنیای واقعی ندارند. در واقع خودشان نمی‌دانند که چه می‌گویند. اطلاعاتشان محدود به متنی است که به آن‌ها آموزش داده شده است.

در نتیجه در حالی که GPT-3 می‎تواند به راحتی به شما بگوید که رئیس جمهور ایالات متحده در سال 1955 چه کسی بوده است، این را نمی‌داند که یک تستر از یک خودکار سنگین‌تر است. همچنین GPT-3 فکر می‎کند پاسخ صحیح سوال «چند رنگین‌کمان بین هاوایی و دستمال کاغذی! وجود دارد؟» دو، است. این که ماشین‌ها می‌توانند از معانی متن‌ها نتیجه‌گیری کنند یا نه هنوز موضوع بحث است، اما طبق این سوالات احتمالا پاسخ منفی است. حداقل فعلا این طور است. به همین دلیل است که برای استفاده مسئولانه از سیستم‌های زبانی مبتنی بر هوش مصنوعی، هنوز هم نیاز به دخالت زیاد انسان داریم.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]