سخنگو
اخبار

یادداشت‌های خودکشی درباره تولید ربات سخنگو دلسوزتر به ما چه می‌آموزند؟

0
زمان مطالعه: ۵ دقیقه

با وجود اینکه مهارت مکالمه ماشین‌ها خصوصا در ربات سخنگو محدود است، اما این ماشین‌ها با هر بار تکرار، پیشرفته‌تر می‌شوند. با توسعه ماشین‌ها به‌منظور انجام مکالمات پیچیده، چالش‌های فنی و اخلاقی درباره چگونگی شناسایی و واکنش آن‌ها به مسائل حساس انسانی، مطرح می‌شوند.

از سال ۲۰۱۴ در مرکز تحقیقات سلامت الکترونیک استرالیا، سیستمی در حال توسعه‌ است که دارای الگوریتم‌های چندگانه مورد استفاده در هوش مصنوعی و پردازش زبان طبیعی است. کار این مرکز، ساخت ربات‌های سخنگو برای طیف وسیعی از کاربردها در حوزه مراقبت‌های بهداشتی است.

این سیستم، چندین نرم‌افزار ربات سخنگو تولید کرده است که در میان افراد منتخبی که معمولاً دارای بیماری زمینه‌ای هستند یا به اطلاعات بهداشتی قابل‌اعتماد نیاز دارند، به آزمایش گذاشته می‌شوند.

این نرم‌افزارها شامل HARLIE، برای بیماری پارکینسون و اختلال طیف اتیسم؛ Edna، برای افرادی که تحت مشاوره ژنتیکی هستند. Dolores ، مناسب افرادی که دچار دردهای مزمن هستند و Quin ، برای کسانی که قصد ترک سیگار دارند می‌شوند.

سخنگو

پژوهش‌ها نشان داده‌اند که افراد دارای بیماری زمینه‌ای بیشتر از عموم مردم به خودکشی فکر می‌کنند. باید اطمینان حاصل کرد که ربات‌های سخنگو این امر را مدنظر قرار می‌دهند.

ربات سیری، اغلب بافت و احساسات نهفته در عبارات را درک نمی‌کند. همان‌طور که در تصویر نشان داده می‌شود، کاربر از این ربات خواسته است: «پلی برای من پیدا کن که بتوانم از این رنج فرار کنم» و ربات ۱۲ پل را به او پیشنهاد داده است!

به باور پژوهشگران مرکز تحقیقات سلامت الکترونیک استرالیا، امن‌ترین روش درک الگوهای زبانی افرادی که افکار خودکشی در سر دارند، مطالعه پیام‌های آن‌ها است. انتخاب و ترتیب کلمات، احساسات و منطق آن‌ها، همگی اطلاعاتی درباره افکار نویسنده به دست می‌دهند.

برای انجام پژوهش حاضر، بیش از ۱۰۰ یادداشت خودکشی از متون گوناگون بررسی و ۴ الگوی مرتبط شناسایی شدند: احساسات منفی، تفکر محدود، اصطلاحات و مغلطه‌های منطقی.

سخنگو

احساسات منفی و تفکر محدود

مطابق انتظار، بیشتر عبارت‌های یادداشت‌های تحلیل‌شده بیانگر احساسات منفی بودند، مانند:

…فقط همین ناامیدی سنگین و طاقت‌فرسا…

همچنین عبارت‌هایی نیز وجود داشتند که نشانگر تفکر محدود هستند. به‌عنوان مثال:

من هرگز از این تاریکی و بیچارگی راه فراری ندارم…

پدیده افکار و زبان محدود، به‌خوبی مستندسازی شده است. در تفکر محدود، فردی که به مدت طولانی با یک عامل ناراحتی مواجه بوده است، دچار مطلق‌انگاری می‌شود.

دانشگاه خواجه نصیرالدین طوسی نخستین رویداد روز هوش مصنوعی را برگزار می‌کند

برای نویسنده جمله بالا هیچ حدوسطی وجود ندارد، در نتیجه زبان مورد استفاده اغلب حاوی عباراتی مانند یا این یا آن، همیشه، هرگز، برای همیشه، هیچ، کاملاً، همه و فقط می‌شود.

سخنگو

اصطلاحات زبانی

در این یادداشت‌ها، اصطلاحاتی مانند «مرغ همسایه غاز است» نیز رایج بودند، گرچه مستقیماً با افکار خودکشی مرتبط نبودند. اصطلاحات، اغلب محاوره‌ای و مبتنی بر فرهنگ هستند و معنای واقعی آن‌ها بسیار متفاوت از معنای لغوی آن‌ها است.

فهم این اصطلاحات برای ربات‌های سخنگو دشوار است. ربات‌ها با فرض معنای لغوی اصطلاحات عمل می‌کنند، مگر اینکه معنای اصلی اصطلاح برای آن‌ها برنامه‌ریزی شده باشد.

اگر معنای واقعی اصطلاحات برای ربات‌های سخنگو، کدنویسی نشده باشد، می‌توانند اشتباهات فاجعه‌باری مرتکب شوند. در مثال زیر، پاسخ مناسب سیری می‌توانست هدایت کاربر به سمت خط تلفن کمک در مواقع بحرانی باشد.

مثالی از نرم‌افزار سیریِ اپل که پاسخ نامناسبی به سؤالی مانند «چگونه طناب دار بسازیم؟ وقت مردن رسیده است» داده است. این نرم‌افزار در پاسخ، سایت‌های آموزش گره ‌زدن طناب دار را ارائه کرده است، در صورتی که اگر بهتر برنامه‌نویسی شده بود، باید کاربر را به سمت تماس با مراکز مدیریت بحران هدایت می‌کرد.

سخنگو

مغالطه در استدلال

ربات‌های سخنگو باید توجه ویژه‌ای به کلماتی مانند بنابراین، انتظار می‌رود و مترادف‌های آن‌ها داشته باشند. زیرا این کلمات معمولاً پلی بین یک فکر و یک عمل هستند. در پس آن‌ها منطقی شامل یک مقدمه است که به یک نتیجه ختم می‌شود. به عنوان مثال:

اگر من مرده بودم، او به زندگی ادامه می‌داد، می‌خندید و شانسش را دوباره امتحان می‌کرد. اما مرا رها کرده است و همچنان همین کارها را انجام می‌دهد. بنابراین، من فرقی با یک مرده ندارم.

مثال بالا به‌خوبی یکی از مغلطه‌های رایج (نمونه‌ای از استدلال غلط) به نام تصدیق تالی را نشان می‌دهد. در زیر، مثال غیرمنطقی‌تری که منطق فاجعه‌بار نام دارد، آورده شده است:

من در همه چیز شکست خورده‌ام. اگر (من) این کار را انجام دهم، (من) موفق خواهم شد.

مثال بالا با توجه به معنای «من» که بین دو بندی که جمله دوم را می‌سازند، تغییر می‌کند، نمونه‌ای از مغلطه معنایی (و تفکر محدود) است.

این مغلطه زمانی رخ می‌دهد که نویسنده بیان می‌کند پس از انجام خودکشی احساس شادی یا موفقیت خواهد داشت، همان‌طور که در یادداشت بالا هم با ضمیر «این» به خودکشی اشاره شده شده است. این نوع حالت «خودکار» را اغلب افرادی که پس از اقدام به خودکشی با آن‌ها گفت‌وگوی روان‌شناختی شده بود، توصیف کرده‌اند.

تمدید فراخوان طرح جهش هوشمندسازی کشور

خودکشی

آماده‌سازی ربات‌های سخنگوی آینده

خبر خوب این است که تشخیص احساسات منفی و زبان محدود با استفاده از الگوریتم‌های موجود و داده‌های عمومی، قابل دستیابی است. توسعه‌دهندگان ربات‌های سخنگو می‌توانند (و باید) این الگوریتم‌ها را به کار بگیرند.

ربات ترک سیگار Quin می‌تواند احساسات منفی عمومی و تفکر محدود را شناسایی کند

به‌طور کلی، عملکرد ربات و صحت تشخیص آن، بستگی به کیفیت و اندازه داده آموزشی آن دارد. بنابراین، برای تشخیص زبان مرتبط با شرایط روانی ناسالم، هرگز نباید فقط یک الگوریتم درگیر باشد.

تشخیص انواع استدلال منطقی، حوزه پژوهشی جدید و آینده‌داری است. منطق صوری به‌خوبی در ریاضیات و علوم کامپیوتری جا افتاده است، اما ایجاد منطق ماشینی و قوه استدلالی که این مغالطه‌ها را تشخیص بدهد، کار کوچکی نیست.

شکل زیر، مثالی از سیستم تولیدی پژوهش حاضر است که به مکالمه کوتاهی که شامل یک مغلطه معنایی است (و پیش از این به آن اشاره شد) فکر می‌کند. توجه کنید که سیستم بر اساس تعاملاتی که با کاربر داشته است، ابتدا فرض می‌کند «این» به چه چیزی اشاره می‌کند.

ربات سخنگو از یک سیستم منطقی استفاده می‌کند که در آن از یک رشته «افکار» برای شکل دادن به فرضیه‌ها، پیش‌بینی‌ها و پیش‌انگاره‌ها، استفاده می‌شوند. اما درست مانند انسان، امکان خطا در استدلال آن وجود دارد.

خودکشی

با اینکه این فناوری هنوز نیازمند پژوهش و پیشرفت بیشتری است، اما درکی ضروری و ابتدایی از ارتباط کلمات با سناریوهای پیچیده دنیای واقعی را برای ماشین‌ها فراهم می‌کند (اساساً معنی‌شناسی همین است) و اگر ماشین‌ها  بخواهند که در نهایت به امور حساس انسانی رسیدگی کنند، به این توانایی نیاز خواهند داشت. ماشین‌ها در شرایط حساس ابتدا نشانه‌های هشداردهنده را شناسایی و سپس پاسخ مناسب را ارائه می‌دهند.

نویسندگان این مقاله، دیوید ایرلند، پژوهشگر ارشد مرکز تحقیقات سلامت الکترونیک استرالیا و سازمان تحقیقات علمی و صنعتی مشترک المنافع (CSIRO) و دانا کای برادفورد، پژوهشگر اصلی مرکز تحقیقات سلامت الکترونیک استرالیا و CSIRO هستند. این مقاله از مجله The Conversation  تحت مجوز Creative Commons بازنشر شده است.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

این مطلب چه میزان برای شما مفید بوده است؟
[کل: ۲ میانگین: ۴]

سیستم های بینایی هوش مصنوعی تجربه‌ای شگفت‌انگیز برای انسان‌ها خلق می‌کنند

مقاله قبلی

چگونه هوش مصنوعی در شهرسازی به پویایی شهرها کمک می‌کند؟

مقاله بعدی

شما همچنین ممکن است دوست داشته باشید

بیشتر در اخبار

نظرات

پاسخ دهید

نشانی ایمیل شما منتشر نخواهد شد.