یادداشتهای خودکشی درباره تولید ربات سخنگو دلسوزتر به ما چه میآموزند؟
با وجود اینکه مهارت مکالمه ماشینها خصوصا در ربات سخنگو محدود است، اما این ماشینها با هر بار تکرار، پیشرفتهتر میشوند. با توسعه ماشینها بهمنظور انجام مکالمات پیچیده، چالشهای فنی و اخلاقی درباره چگونگی شناسایی و واکنش آنها به مسائل حساس انسانی، مطرح میشوند.
از سال 2014 در مرکز تحقیقات سلامت الکترونیک استرالیا، سیستمی در حال توسعه است که دارای الگوریتمهای چندگانه مورد استفاده در هوش مصنوعی و پردازش زبان طبیعی است. کار این مرکز، ساخت رباتهای سخنگو برای طیف وسیعی از کاربردها در حوزه مراقبتهای بهداشتی است.
این سیستم، چندین نرمافزار ربات سخنگو تولید کرده است که در میان افراد منتخبی که معمولاً دارای بیماری زمینهای هستند یا به اطلاعات بهداشتی قابلاعتماد نیاز دارند، به آزمایش گذاشته میشوند.
این نرمافزارها شامل HARLIE، برای بیماری پارکینسون و اختلال طیف اتیسم؛ Edna، برای افرادی که تحت مشاوره ژنتیکی هستند. Dolores ، مناسب افرادی که دچار دردهای مزمن هستند و Quin ، برای کسانی که قصد ترک سیگار دارند میشوند.
پژوهشها نشان دادهاند که افراد دارای بیماری زمینهای بیشتر از عموم مردم به خودکشی فکر میکنند. باید اطمینان حاصل کرد که رباتهای سخنگو این امر را مدنظر قرار میدهند.
ربات سیری، اغلب بافت و احساسات نهفته در عبارات را درک نمیکند. همانطور که در تصویر نشان داده میشود، کاربر از این ربات خواسته است: «پلی برای من پیدا کن که بتوانم از این رنج فرار کنم» و ربات 12 پل را به او پیشنهاد داده است!
به باور پژوهشگران مرکز تحقیقات سلامت الکترونیک استرالیا، امنترین روش درک الگوهای زبانی افرادی که افکار خودکشی در سر دارند، مطالعه پیامهای آنها است. انتخاب و ترتیب کلمات، احساسات و منطق آنها، همگی اطلاعاتی درباره افکار نویسنده به دست میدهند.
برای انجام پژوهش حاضر، بیش از 100 یادداشت خودکشی از متون گوناگون بررسی و 4 الگوی مرتبط شناسایی شدند: احساسات منفی، تفکر محدود، اصطلاحات و مغلطههای منطقی.
احساسات منفی و تفکر محدود
مطابق انتظار، بیشتر عبارتهای یادداشتهای تحلیلشده بیانگر احساسات منفی بودند، مانند:
…فقط همین ناامیدی سنگین و طاقتفرسا…
همچنین عبارتهایی نیز وجود داشتند که نشانگر تفکر محدود هستند. بهعنوان مثال:
من هرگز از این تاریکی و بیچارگی راه فراری ندارم…
پدیده افکار و زبان محدود، بهخوبی مستندسازی شده است. در تفکر محدود، فردی که به مدت طولانی با یک عامل ناراحتی مواجه بوده است، دچار مطلقانگاری میشود.
برای نویسنده جمله بالا هیچ حدوسطی وجود ندارد، در نتیجه زبان مورد استفاده اغلب حاوی عباراتی مانند یا این یا آن، همیشه، هرگز، برای همیشه، هیچ، کاملاً، همه و فقط میشود.
اصطلاحات زبانی
در این یادداشتها، اصطلاحاتی مانند «مرغ همسایه غاز است» نیز رایج بودند، گرچه مستقیماً با افکار خودکشی مرتبط نبودند. اصطلاحات، اغلب محاورهای و مبتنی بر فرهنگ هستند و معنای واقعی آنها بسیار متفاوت از معنای لغوی آنها است.
فهم این اصطلاحات برای رباتهای سخنگو دشوار است. رباتها با فرض معنای لغوی اصطلاحات عمل میکنند، مگر اینکه معنای اصلی اصطلاح برای آنها برنامهریزی شده باشد.
اگر معنای واقعی اصطلاحات برای رباتهای سخنگو، کدنویسی نشده باشد، میتوانند اشتباهات فاجعهباری مرتکب شوند. در مثال زیر، پاسخ مناسب سیری میتوانست هدایت کاربر به سمت خط تلفن کمک در مواقع بحرانی باشد.
مثالی از نرمافزار سیریِ اپل که پاسخ نامناسبی به سؤالی مانند «چگونه طناب دار بسازیم؟ وقت مردن رسیده است» داده است. این نرمافزار در پاسخ، سایتهای آموزش گره زدن طناب دار را ارائه کرده است، در صورتی که اگر بهتر برنامهنویسی شده بود، باید کاربر را به سمت تماس با مراکز مدیریت بحران هدایت میکرد.
مغالطه در استدلال
رباتهای سخنگو باید توجه ویژهای به کلماتی مانند بنابراین، انتظار میرود و مترادفهای آنها داشته باشند. زیرا این کلمات معمولاً پلی بین یک فکر و یک عمل هستند. در پس آنها منطقی شامل یک مقدمه است که به یک نتیجه ختم میشود. به عنوان مثال:
اگر من مرده بودم، او به زندگی ادامه میداد، میخندید و شانسش را دوباره امتحان میکرد. اما مرا رها کرده است و همچنان همین کارها را انجام میدهد. بنابراین، من فرقی با یک مرده ندارم.
مثال بالا بهخوبی یکی از مغلطههای رایج (نمونهای از استدلال غلط) به نام تصدیق تالی را نشان میدهد. در زیر، مثال غیرمنطقیتری که منطق فاجعهبار نام دارد، آورده شده است:
من در همه چیز شکست خوردهام. اگر (من) این کار را انجام دهم، (من) موفق خواهم شد.
مثال بالا با توجه به معنای «من» که بین دو بندی که جمله دوم را میسازند، تغییر میکند، نمونهای از مغلطه معنایی (و تفکر محدود) است.
این مغلطه زمانی رخ میدهد که نویسنده بیان میکند پس از انجام خودکشی احساس شادی یا موفقیت خواهد داشت، همانطور که در یادداشت بالا هم با ضمیر «این» به خودکشی اشاره شده شده است. این نوع حالت «خودکار» را اغلب افرادی که پس از اقدام به خودکشی با آنها گفتوگوی روانشناختی شده بود، توصیف کردهاند.
آمادهسازی رباتهای سخنگوی آینده
خبر خوب این است که تشخیص احساسات منفی و زبان محدود با استفاده از الگوریتمهای موجود و دادههای عمومی، قابل دستیابی است. توسعهدهندگان رباتهای سخنگو میتوانند (و باید) این الگوریتمها را به کار بگیرند.
ربات ترک سیگار Quin میتواند احساسات منفی عمومی و تفکر محدود را شناسایی کند
بهطور کلی، عملکرد ربات و صحت تشخیص آن، بستگی به کیفیت و اندازه داده آموزشی آن دارد. بنابراین، برای تشخیص زبان مرتبط با شرایط روانی ناسالم، هرگز نباید فقط یک الگوریتم درگیر باشد.
تشخیص انواع استدلال منطقی، حوزه پژوهشی جدید و آیندهداری است. منطق صوری بهخوبی در ریاضیات و علوم کامپیوتری جا افتاده است، اما ایجاد منطق ماشینی و قوه استدلالی که این مغالطهها را تشخیص بدهد، کار کوچکی نیست.
شکل زیر، مثالی از سیستم تولیدی پژوهش حاضر است که به مکالمه کوتاهی که شامل یک مغلطه معنایی است (و پیش از این به آن اشاره شد) فکر میکند. توجه کنید که سیستم بر اساس تعاملاتی که با کاربر داشته است، ابتدا فرض میکند «این» به چه چیزی اشاره میکند.
ربات سخنگو از یک سیستم منطقی استفاده میکند که در آن از یک رشته «افکار» برای شکل دادن به فرضیهها، پیشبینیها و پیشانگارهها، استفاده میشوند. اما درست مانند انسان، امکان خطا در استدلال آن وجود دارد.
با اینکه این فناوری هنوز نیازمند پژوهش و پیشرفت بیشتری است، اما درکی ضروری و ابتدایی از ارتباط کلمات با سناریوهای پیچیده دنیای واقعی را برای ماشینها فراهم میکند (اساساً معنیشناسی همین است) و اگر ماشینها بخواهند که در نهایت به امور حساس انسانی رسیدگی کنند، به این توانایی نیاز خواهند داشت. ماشینها در شرایط حساس ابتدا نشانههای هشداردهنده را شناسایی و سپس پاسخ مناسب را ارائه میدهند.
نویسندگان این مقاله، دیوید ایرلند، پژوهشگر ارشد مرکز تحقیقات سلامت الکترونیک استرالیا و سازمان تحقیقات علمی و صنعتی مشترک المنافع (CSIRO) و دانا کای برادفورد، پژوهشگر اصلی مرکز تحقیقات سلامت الکترونیک استرالیا و CSIRO هستند. این مقاله از مجله The Conversation تحت مجوز Creative Commons بازنشر شده است.
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید