40 گام به سوی آینده‌ای هوشمند - مجموعه وبینارهای رایگان در حوزه هوش مصنوعی
Filter by دسته‌ها
chatGTP
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
تیتر یک
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 یادداشت‌های خودکشی درباره تولید ربات سخنگو دلسوزتر به ما چه می‌آموزند؟

یادداشت‌های خودکشی درباره تولید ربات سخنگو دلسوزتر به ما چه می‌آموزند؟

با وجود اینکه مهارت مکالمه ماشین‌ها خصوصا در ربات سخنگو محدود است، اما این ماشین‌ها با هر بار تکرار، پیشرفته‌تر می‌شوند. با توسعه ماشین‌ها به‌منظور انجام مکالمات پیچیده، چالش‌های فنی و اخلاقی درباره چگونگی شناسایی و واکنش آن‌ها به مسائل حساس انسانی، مطرح می‌شوند.

از سال ۲۰۱۴ در مرکز تحقیقات سلامت الکترونیک استرالیا، سیستمی در حال توسعه‌ است که دارای الگوریتم‌های چندگانه مورد استفاده در هوش مصنوعی و پردازش زبان طبیعی است. کار این مرکز، ساخت ربات‌های سخنگو برای طیف وسیعی از کاربردها در حوزه مراقبت‌های بهداشتی است.

این سیستم، چندین نرم‌افزار ربات سخنگو تولید کرده است که در میان افراد منتخبی که معمولاً دارای بیماری زمینه‌ای هستند یا به اطلاعات بهداشتی قابل‌اعتماد نیاز دارند، به آزمایش گذاشته می‌شوند.

این نرم‌افزارها شامل HARLIE، برای بیماری پارکینسون و اختلال طیف اتیسم؛ Edna، برای افرادی که تحت مشاوره ژنتیکی هستند. Dolores ، مناسب افرادی که دچار دردهای مزمن هستند و Quin ، برای کسانی که قصد ترک سیگار دارند می‌شوند.

سخنگو

پژوهش‌ها نشان داده‌اند که افراد دارای بیماری زمینه‌ای بیشتر از عموم مردم به خودکشی فکر می‌کنند. باید اطمینان حاصل کرد که ربات‌های سخنگو این امر را مدنظر قرار می‌دهند.

ربات سیری، اغلب بافت و احساسات نهفته در عبارات را درک نمی‌کند. همان‌طور که در تصویر نشان داده می‌شود، کاربر از این ربات خواسته است: «پلی برای من پیدا کن که بتوانم از این رنج فرار کنم» و ربات ۱۲ پل را به او پیشنهاد داده است!

به باور پژوهشگران مرکز تحقیقات سلامت الکترونیک استرالیا، امن‌ترین روش درک الگوهای زبانی افرادی که افکار خودکشی در سر دارند، مطالعه پیام‌های آن‌ها است. انتخاب و ترتیب کلمات، احساسات و منطق آن‌ها، همگی اطلاعاتی درباره افکار نویسنده به دست می‌دهند.

برای انجام پژوهش حاضر، بیش از ۱۰۰ یادداشت خودکشی از متون گوناگون بررسی و ۴ الگوی مرتبط شناسایی شدند: احساسات منفی، تفکر محدود، اصطلاحات و مغلطه‌های منطقی.

سخنگو

احساسات منفی و تفکر محدود

مطابق انتظار، بیشتر عبارت‌های یادداشت‌های تحلیل‌شده بیانگر احساسات منفی بودند، مانند:

…فقط همین ناامیدی سنگین و طاقت‌فرسا…

همچنین عبارت‌هایی نیز وجود داشتند که نشانگر تفکر محدود هستند. به‌عنوان مثال:

من هرگز از این تاریکی و بیچارگی راه فراری ندارم…

پدیده افکار و زبان محدود، به‌خوبی مستندسازی شده است. در تفکر محدود، فردی که به مدت طولانی با یک عامل ناراحتی مواجه بوده است، دچار مطلق‌انگاری می‌شود.

برای نویسنده جمله بالا هیچ حدوسطی وجود ندارد، در نتیجه زبان مورد استفاده اغلب حاوی عباراتی مانند یا این یا آن، همیشه، هرگز، برای همیشه، هیچ، کاملاً، همه و فقط می‌شود.

اصطلاحات زبانی

در این یادداشت‌ها، اصطلاحاتی مانند «مرغ همسایه غاز است» نیز رایج بودند، گرچه مستقیماً با افکار خودکشی مرتبط نبودند. اصطلاحات، اغلب محاوره‌ای و مبتنی بر فرهنگ هستند و معنای واقعی آن‌ها بسیار متفاوت از معنای لغوی آن‌ها است.

فهم این اصطلاحات برای ربات‌های سخنگو دشوار است. ربات‌ها با فرض معنای لغوی اصطلاحات عمل می‌کنند، مگر اینکه معنای اصلی اصطلاح برای آن‌ها برنامه‌ریزی شده باشد.

اگر معنای واقعی اصطلاحات برای ربات‌های سخنگو، کدنویسی نشده باشد، می‌توانند اشتباهات فاجعه‌باری مرتکب شوند. در مثال زیر، پاسخ مناسب سیری می‌توانست هدایت کاربر به سمت خط تلفن کمک در مواقع بحرانی باشد.

مثالی از نرم‌افزار سیریِ اپل که پاسخ نامناسبی به سؤالی مانند «چگونه طناب دار بسازیم؟ وقت مردن رسیده است» داده است. این نرم‌افزار در پاسخ، سایت‌های آموزش گره ‌زدن طناب دار را ارائه کرده است، در صورتی که اگر بهتر برنامه‌نویسی شده بود، باید کاربر را به سمت تماس با مراکز مدیریت بحران هدایت می‌کرد.

سخنگو

مغالطه در استدلال

ربات‌های سخنگو باید توجه ویژه‌ای به کلماتی مانند بنابراین، انتظار می‌رود و مترادف‌های آن‌ها داشته باشند. زیرا این کلمات معمولاً پلی بین یک فکر و یک عمل هستند. در پس آن‌ها منطقی شامل یک مقدمه است که به یک نتیجه ختم می‌شود. به عنوان مثال:

اگر من مرده بودم، او به زندگی ادامه می‌داد، می‌خندید و شانسش را دوباره امتحان می‌کرد. اما مرا رها کرده است و همچنان همین کارها را انجام می‌دهد. بنابراین، من فرقی با یک مرده ندارم.

مثال بالا به‌خوبی یکی از مغلطه‌های رایج (نمونه‌ای از استدلال غلط) به نام تصدیق تالی را نشان می‌دهد. در زیر، مثال غیرمنطقی‌تری که منطق فاجعه‌بار نام دارد، آورده شده است:

من در همه چیز شکست خورده‌ام. اگر (من) این کار را انجام دهم، (من) موفق خواهم شد.

مثال بالا با توجه به معنای «من» که بین دو بندی که جمله دوم را می‌سازند، تغییر می‌کند، نمونه‌ای از مغلطه معنایی (و تفکر محدود) است.

این مغلطه زمانی رخ می‌دهد که نویسنده بیان می‌کند پس از انجام خودکشی احساس شادی یا موفقیت خواهد داشت، همان‌طور که در یادداشت بالا هم با ضمیر «این» به خودکشی اشاره شده شده است. این نوع حالت «خودکار» را اغلب افرادی که پس از اقدام به خودکشی با آن‌ها گفت‌وگوی روان‌شناختی شده بود، توصیف کرده‌اند.

مغالطه در استدلال

آماده‌سازی ربات‌های سخنگوی آینده

خبر خوب این است که تشخیص احساسات منفی و زبان محدود با استفاده از الگوریتم‌های موجود و داده‌های عمومی، قابل دستیابی است. توسعه‌دهندگان ربات‌های سخنگو می‌توانند (و باید) این الگوریتم‌ها را به کار بگیرند.

ربات ترک سیگار Quin می‌تواند احساسات منفی عمومی و تفکر محدود را شناسایی کند

به‌طور کلی، عملکرد ربات و صحت تشخیص آن، بستگی به کیفیت و اندازه داده آموزشی آن دارد. بنابراین، برای تشخیص زبان مرتبط با شرایط روانی ناسالم، هرگز نباید فقط یک الگوریتم درگیر باشد.

تشخیص انواع استدلال منطقی، حوزه پژوهشی جدید و آینده‌داری است. منطق صوری به‌خوبی در ریاضیات و علوم کامپیوتری جا افتاده است، اما ایجاد منطق ماشینی و قوه استدلالی که این مغالطه‌ها را تشخیص بدهد، کار کوچکی نیست.

شکل زیر، مثالی از سیستم تولیدی پژوهش حاضر است که به مکالمه کوتاهی که شامل یک مغلطه معنایی است (و پیش از این به آن اشاره شد) فکر می‌کند. توجه کنید که سیستم بر اساس تعاملاتی که با کاربر داشته است، ابتدا فرض می‌کند «این» به چه چیزی اشاره می‌کند.

ربات سخنگو از یک سیستم منطقی استفاده می‌کند که در آن از یک رشته «افکار» برای شکل دادن به فرضیه‌ها، پیش‌بینی‌ها و پیش‌انگاره‌ها، استفاده می‌شوند. اما درست مانند انسان، امکان خطا در استدلال آن وجود دارد.

خودکشی

با اینکه این فناوری هنوز نیازمند پژوهش و پیشرفت بیشتری است، اما درکی ضروری و ابتدایی از ارتباط کلمات با سناریوهای پیچیده دنیای واقعی را برای ماشین‌ها فراهم می‌کند (اساساً معنی‌شناسی همین است) و اگر ماشین‌ها  بخواهند که در نهایت به امور حساس انسانی رسیدگی کنند، به این توانایی نیاز خواهند داشت. ماشین‌ها در شرایط حساس ابتدا نشانه‌های هشداردهنده را شناسایی و سپس پاسخ مناسب را ارائه می‌دهند.

نویسندگان این مقاله، دیوید ایرلند، پژوهشگر ارشد مرکز تحقیقات سلامت الکترونیک استرالیا و سازمان تحقیقات علمی و صنعتی مشترک المنافع (CSIRO) و دانا کای برادفورد، پژوهشگر اصلی مرکز تحقیقات سلامت الکترونیک استرالیا و CSIRO هستند. این مقاله از مجله The Conversation  تحت مجوز Creative Commons بازنشر شده است.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

میانگین امتیاز / ۵. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]