روش تعامل ربات با انسان ؛ چگونه با رباتها کنار بیاییم؟
فرقی نمیکند هوش مصنوعی HAL 9000 را مقصر بدانیم یا وقفههای نشاطبخش و پیوسته دستیار Clippy را یا هر سیستم مسیریابی که رانندگان تحویل مرسوله را به بنبست میکشاند. در هر حال، انسانها و رباتها در فضای کاری، همیشه با هم کنار نمیآیند و به همین دلیل روش تعامل ربات با انسان نیاز به بازبینی دارد. اما با بیشتر شدن همکاری میان سیستمهای هوشمند، رباتها و نیروی کار انسانی، ایجاد اعتماد میان آنها، برای به سرانجام رسیدن کار، اهمیت بسزایی دارد. یکی از استادان دانشگاه جورجیا در تلاش است که با کمک ارتش ایالات متحده، این شکاف را پر کند.
آرون شکتر ، استادیار گروه سیستمهای مدیریت اطلاعات کالج Terry، دو پژوهانه (گرنت) به ارزش تقریبی 2 میلیون دلار از ارتش آمریکا دریافت کرده است، تا درباره روش تعامل ربات و انسان مطالعه کند. هوش مصنوعی خانگی در سفارشهای خواروبار کمک میکند، اما هوش مصنوعی در میدان جنگ، موقعیت خطیرتری دارد و انسجام و اعتماد تیمی، موضوع مرگ و زندگی است.
[irp posts=”11877″]آرون شکتر در خصوص روش تعامل ربات و انسان میگوید: «پژوهش من بیشتر، جنبههای روانشناختی رباتها را بررسی میکند و کمتر به طراحی و عناصر نحوه کارکرد ربات مرتبط است. ما چه وقت، به چیزی اعتماد میکنیم؟ چه سازوکارهایی اعتماد را ایجاد میکنند؟ چگونه رباتها را وادار به همکاری کنیم؟ اگر ربات، خرابکاری کند، آیا میتوانیم آن را ببخشیم؟»
نیاز ارتش
شکتر میگوید: «ارتش به نوعی ربات یا سامانه هوش مصنوعی نیاز دارد که انسان آن را کنترل نکند و با انجام کار، باری را از دوش انسانها بردارد. واضح است که رباتی میخواهند که انسانها به آن واکنش بدی نداشته باشند.»
ممکن است چشمانداز ساخت رباتهای نظامی به اندازه فیلم ترمیناتور قوت بگیرد، اما شکتر اظهار کرده است: «بیشتر رباتها و سیستمهای در حال توسعه به منظور حملونقل بارهای سنگین یا انجام شناسایی پیشرفته ساخته شدهاند. این رباتها به شکل یک سکوی متحرک هستند که آب و مهمات را برای سربازان حمل میکنند و بنابراین آنها مجبور نیستند که مهماتی به وزن 80 پوند را حمل کنند.
یا یک پهپاد کنترل از راه دور را تصور کنید که مانند پرنده دستآموز بالای سر آنها پرواز میکند، پیش رو را تحتنظر میگیرد و بازخوردهای صوتی مانند «پیشنهاد میکنم از این مسیر بروید» ارائه میدهد. با اینحال، رباتها تنها زمانی قابلاعتماد هستند که باعث مجروع شدن سربازها یا به خطر افتادن جان آنها نشوند. ما نمیخواهیم که مردم از رباتها متنفر باشند، از آنها برنجند یا ندیدهشان بگیرند. برای کارآمد بودن رباتها، باید در موقعیتهایی که پای مرگ و زندگی در میان است، به آنها اعتماد داشت. بنابراین چگونه میتوان اعتماد افراد به رباتها را جلب کرد؟ چگونه میتوان مردم را مجاب کرد که به هوش مصنوعی اطمینان داشته باشند؟»
ریک واتسون ، استاد داشنگاه ریجنتس و جی.رکس فوکوآ ، استاد برجسته استراتژی اینترنتی و نویسنده همکار شکتر در برخی گروههای پژوهشی هوش مصنوعی است. او فکر میکند که با توسعه بیشتر هوش مصنوعی، مطالعه چگونگی همکاری ماشینها و انسانها اهمیت بیشتری خواهد یافت.
درک محدودیتها
واتسون در این خصوص گفت: «من فکر میکنم که در آینده کاربردهای جدید بسیاری از هوش مصنوعی خواهیم دید و به همین دلیل، باید بدانیم که چه مواقعی عملکرد خوبی از خود بر جای میگذارد. اگر هوش مصنوعی برای انسان خطرآفرین باشد یا شرایط دشواری برای توجیه تصمیمات پیش رو باشد، نباید از آن استفاده کرد، زیرا نمیدانیم سیستم هوش مصنوعی در جایی که خطر جانی وجود دارد، بر چه اساسی آن تصمیم را پیشنهاد کرده است. ما باید محدودیتهای آن را درک کنیم.»
درک موقعیتی که در آن سیستمهای هوش مصنوعی و رباتها خوب کار میکنند، موجب شد که شکتر آنچه را که درباره تیمهای انسانی میداند، در پویاییهای تیمهای انسان- ربات اعمال کند و باعث بهینهسازی روش تعامل ربات و انسان شود.
شکتر ابتدا اطلاعاتی درباره موقعیتهایی جمعآوری کرد که در آن احتمال بیشتری وجود دارد که افراد توصیه یک ربات را بپذیرند. سپس، طی مجموعهای از پروژهها که دفتر پژوهش ارتش، تأمین مالی آن را بر عهده داشت، این موضوع را بررسی کرد که انسانها چگونه توصیههای ماشینها را میپذیرند و آن را با توصیههایی از طرف انسانهای دیگر، مقایسه کرد.
اتکا به الگوریتمها
گروه شکتر در یکی از پروژهها، یک تکلیف برنامهریزی را به آزمودنیها ارائه کرد. برای مثال، از آنها خواست که کوتاهترین مسیر بین دو نقطه را روی یک نقشه مشخص کنند. او دریافت، افراد به توصیههای یک الگوریتم بیشتر از توصیههای انسانی دیگر، اعتماد میکنند. در آزمایشی دیگر، گروه او شواهدی پیدا کرد مبنی بر اینکه احتمالاً انسانها در دیگر تکالیف مانند بازیِ ارتباط کلمات یا طوفان فکری به الگوریتمها متکی هستند.
[irp posts=”20683″]شکتر گفت: «ما در جستوجوی روشهایی هستیم که از طریق آنها یک الگوریتم یا هوش مصنوعی میتواند بر تصمیمگیری انسان اثر بگذارد. ما تعداد زیادی از تکالیف متفاوت را آزمایش میکنیم، تا دریابیم افراد چه زمانی بیشتر به الگوریتم تکیه میکنند… تا به حال چیزی پیدا نکردهایم که خیلی غافلگیرکننده باشد. افراد، زمانی که کاری تحلیلیتر انجام میدهند، بیشتر به کامپیوتر اعتماد میکنند. جالب است که این الگو ممکن است قابلتعمیم به دیگر فعالیتها هم باشد.»
در پژوهش دیگری که بر روی تعامل رباتها و انسانها متمرکز بود، گروه شکتر بیش از 300 موضوع را به VERO (یک دستیار هوش مصنوعی تقلبی که شکل آن مانند فنر انساننما است) معرفی کرد. شکتر میگوید: «اگر Clippy (ربات انیمیشنی مایکروسافت) را به یاد داشته باشید، VERO مشابه آن، اما بزرگتر از آن است.
در طی آزمایشی که در Zoom برگزار شد، گروههای سهنفره، تکالیف تیمی مانند پیدا کردن بیشترین تعداد استفاده از گیره کاغذ یا فهرست کردن مواردی را که برای زنده ماندن در یک جزیره متروکه لازم است، انجام دادند. سپس سروکله VERO پیدا شد.
در جستوجوی یک همکاری خوب
شکتر گفت: «VERO، آواتاری است که بالا و پایین میشود، سیمپیچهایی شبیه فنر دارد و وقتی میخواهد صحبت کند، منقبض و منبسط میشود. میگوید: «سلام، اسم من VERO است. میتوانم در موارد مختلفی به شما کمک کنم. من دارای قابلیت پردازش صدای طبیعی هستم.»
اما در واقع، یک دستیار پژوهشی با استفاده از تغییردهنده صدا ، VERO را کنترل میکرد. گاهی VERO پیشنهادات مفیدی ارائه میداد، مانند کاربردهای متفاوت برای گیره کاغذ، سایر مواقع با گفتن «کارتون عالیه بچهها» یا تشویق همتیمیهای کمحرف برای ارائه ایده، نقش ناظر بازی را ایفا میکرد. مردم واقعاً از آن شرایط بیزار بودند؛ کمتر از ده درصد شرکتکنندگان، فریب این حرفها را میخوردند و از نظرشان VERO یک کودن بود.»
[irp posts=”20676″]هدف شکتر اذیت کردن افراد نبود. پژوهشگران تمام مکالمات، حالتهای چهره، بدن و پرسشنامهها را ثبت کردند، تا الگوهایی را بیابند که اطلاعاتی درباره یک همکاری خوب در اختیارشان قرار میدهند.
نخستین مقاله درباره تیمهای انسانی و هوش مصنوعی- انسان در ماه آوریل در مجله Nature’s Scientific Reports منتشر شد؛ اما شکتر چندین مقاله دیگر را برای سال آینده، در دست بررسی و نگارش دارد.