Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 روش تعامل ربات با انسان ؛ چگونه با ربات‌ها کنار بیاییم؟

روش تعامل ربات با انسان ؛ چگونه با ربات‌ها کنار بیاییم؟

زمان مطالعه: 3 دقیقه

فرقی نمی‌کند هوش مصنوعی HAL 9000 را مقصر بدانیم یا وقفه‌های نشاط‌بخش و پیوسته‌ دستیار Clippy را یا هر سیستم مسیریابی که رانندگان تحویل مرسوله را به بن‌بست می‌کشاند. در هر حال، انسان‌ها و ربات‌ها در فضای کاری، همیشه با هم کنار نمی‌آیند و به همین دلیل روش تعامل ربات با انسان نیاز به بازبینی دارد. اما با بیشتر شدن همکاری میان سیستم‌های هوشمند، ربات‌ها و نیروی کار انسانی، ایجاد اعتماد میان آن‌ها، برای به سرانجام رسیدن کار، اهمیت بسزایی دارد. یکی از استادان دانشگاه جورجیا در تلاش است که با کمک ارتش ایالات متحده، این شکاف را پر کند.

آرون شکتر ، استادیار گروه سیستم‌های مدیریت اطلاعات کالج Terry، دو پژوهانه (گرنت) به ارزش تقریبی 2 میلیون دلار از ارتش آمریکا دریافت کرده است، تا درباره روش تعامل ربات و انسان مطالعه کند. هوش مصنوعی خانگی در سفارش‌های خواروبار کمک می‌کند، اما هوش مصنوعی در میدان جنگ، موقعیت خطیرتری دارد و انسجام و اعتماد تیمی، موضوع مرگ و زندگی است.

[irp posts=”11877″]

آرون شکتر در خصوص روش تعامل ربات و انسان می‌گوید: «پژوهش من بیشتر، جنبه‌های روان‌شناختی ربات‌ها را بررسی می‌کند و کمتر به طراحی و عناصر نحوه کارکرد ربات مرتبط است. ما چه وقت، به چیزی اعتماد می‌کنیم؟ چه سازوکارهایی اعتماد را ایجاد می‌کنند؟ چگونه ربات‌ها را وادار به همکاری کنیم؟ اگر ربات، خرابکاری کند، آیا می‌توانیم آن را ببخشیم؟»

نیاز ارتش

شکتر می‌گوید: «ارتش به نوعی ربات یا سامانه هوش مصنوعی نیاز دارد که انسان آن را کنترل نکند و با انجام کار، باری را از دوش انسان‌ها بردارد. واضح است که رباتی می‌خواهند که انسان‌ها به آن واکنش بدی نداشته باشند.»

ممکن است چشم‌انداز ساخت ربات‌های نظامی به اندازه فیلم ترمیناتور قوت بگیرد، اما شکتر اظهار کرده است: «بیشتر ربات‌ها و سیستم‌های در حال توسعه به منظور حمل‌ونقل بارهای سنگین یا انجام شناسایی پیشرفته ساخته شده‌اند. این ربات‌ها به شکل یک سکوی متحرک هستند که آب و مهمات را برای سربازان حمل می‌کنند و بنابراین آن‌ها مجبور نیستند که مهماتی به وزن 80 پوند را حمل کنند.

یا یک پهپاد کنترل از راه دور را تصور کنید که مانند پرنده دست‌آموز بالای سر آن‌ها پرواز می‌کند، پیش رو را تحت‌نظر می‌گیرد و بازخوردهای صوتی مانند «پیشنهاد می‌کنم از این مسیر بروید» ارائه می‌دهد. با اینحال، ربات‌ها تنها زمانی قابل‌اعتماد هستند که باعث مجروع شدن سربازها یا به خطر افتادن جان آن‌ها نشوند. ما نمی‌خواهیم که مردم از ربات‌ها متنفر باشند، از آن‌ها برنجند یا ندیده‌شان بگیرند. برای کارآمد بودن ربات‌ها، باید در موقعیت‌هایی که پای مرگ و زندگی در میان است، به آن‌ها اعتماد داشت. بنابراین چگونه می‌توان اعتماد افراد به ربات‌ها را جلب کرد؟ چگونه می‌توان مردم را مجاب کرد که به هوش مصنوعی اطمینان داشته باشند؟»

ریک واتسون ، استاد داشنگاه ریجنتس و جی.رکس فوکوآ ، استاد برجسته استراتژی اینترنتی و نویسنده همکار شکتر در برخی گروه‌های پژوهشی هوش مصنوعی است. او فکر می‌کند که با توسعه بیشتر هوش مصنوعی، مطالعه چگونگی همکاری ماشین‌ها و انسان‌ها اهمیت بیشتری خواهد یافت.

روش تعامل ربات با انسان

درک محدودیت‌ها

واتسون در این خصوص گفت: «من فکر می‌کنم که در آینده کاربردهای جدید بسیاری از هوش مصنوعی خواهیم دید و به همین دلیل، باید بدانیم که چه مواقعی عملکرد خوبی از خود بر جای می‌گذارد. اگر هوش مصنوعی برای انسان خطرآفرین باشد یا شرایط دشواری برای توجیه تصمیمات پیش رو باشد، نباید از آن استفاده کرد، زیرا نمی‌دانیم سیستم هوش مصنوعی در جایی که خطر جانی وجود دارد، بر چه اساسی آن تصمیم را پیشنهاد کرده است. ما باید محدودیت‌های آن را درک کنیم.»

درک موقعیتی که در آن سیستم‌های هوش مصنوعی و ربات‌ها خوب کار می‌کنند، موجب شد که شکتر آنچه را که درباره تیم‌های انسانی می‌داند، در پویایی‌های تیم‌های انسان- ربات اعمال کند و باعث بهینه‌سازی روش تعامل ربات و انسان شود.

شکتر ابتدا اطلاعاتی درباره موقعیت‌هایی جمع‌آوری کرد که در آن احتمال بیشتری وجود دارد که افراد توصیه یک ربات را بپذیرند. سپس، طی مجموعه‌ای از پروژه‌ها که دفتر پژوهش ارتش، تأمین مالی آن را بر عهده داشت، این موضوع را بررسی کرد که انسان‌ها چگونه توصیه‌های ماشین‌ها را می‌پذیرند و آن را با توصیه‌هایی از طرف انسان‌های دیگر، مقایسه کرد.

اتکا به الگوریتم‌ها

گروه شکتر در یکی از پروژه‌ها، یک تکلیف برنامه‌ریزی را به آزمودنی‌ها ارائه کرد. برای مثال، از آن‌ها خواست که کوتاه‌ترین مسیر بین دو نقطه را روی یک نقشه مشخص کنند. او دریافت، افراد به توصیه‌های یک الگوریتم بیشتر از توصیه‌های انسانی دیگر، اعتماد می‌کنند. در آزمایشی دیگر، گروه او شواهدی پیدا کرد مبنی بر اینکه احتمالاً انسان‌ها در دیگر تکالیف مانند بازیِ ارتباط کلمات یا طوفان فکری به الگوریتم‌ها متکی هستند.

[irp posts=”20683″]

شکتر گفت: «ما در جست‌وجوی روش‌هایی هستیم که از طریق آن‌ها یک الگوریتم یا هوش مصنوعی می‌تواند بر تصمیم‌گیری انسان اثر بگذارد. ما تعداد زیادی از تکالیف متفاوت را آزمایش می‌کنیم، تا دریابیم افراد چه زمانی بیشتر به الگوریتم تکیه می‌کنند… تا به حال چیزی پیدا نکرده‌ایم که خیلی غافل‌گیرکننده باشد. افراد، زمانی که کاری تحلیلی‌تر انجام می‌دهند، بیشتر به کامپیوتر اعتماد می‌کنند. جالب است که این الگو ممکن است قابل‌تعمیم به دیگر فعالیت‌ها هم باشد.»

در پژوهش دیگری که بر روی تعامل ربات‌ها و انسان‌ها متمرکز بود، گروه شکتر بیش از 300 موضوع را به VERO (یک دستیار هوش مصنوعی تقلبی که شکل آن مانند فنر انسان‌نما است) معرفی کرد. شکتر می‌گوید: «اگر Clippy (ربات انیمیشنی مایکروسافت) را به یاد داشته باشید، VERO مشابه آن، اما بزرگ‌تر از آن است.

در طی آزمایشی که در Zoom برگزار شد، گروه‌های سه‌نفره، تکالیف تیمی مانند پیدا کردن بیشترین تعداد استفاده از گیره کاغذ یا فهرست کردن مواردی را که برای زنده ماندن در یک جزیره متروکه لازم است، انجام دادند. سپس سروکله VERO پیدا شد.

روش تعامل ربات با انسان

در جست‌وجوی یک همکاری خوب

شکتر گفت: «VERO، آواتاری است که بالا و پایین می‌شود، سیم‌پیچ‌هایی شبیه فنر دارد و وقتی می‌خواهد صحبت کند، منقبض و منبسط می‌شود. می‌گوید: «سلام، اسم من VERO است. می‌توانم در موارد مختلفی به شما کمک کنم. من دارای قابلیت پردازش صدای طبیعی هستم.»

اما در واقع، یک دستیار پژوهشی با استفاده از تغییردهنده صدا ، VERO را کنترل می‌کرد. گاهی VERO پیشنهادات مفیدی ارائه می‌داد، مانند کاربردهای متفاوت برای گیره کاغذ، سایر مواقع با گفتن «کارتون عالیه بچه‌ها» یا تشویق هم‌تیمی‌های کم‌حرف برای ارائه ایده، نقش ناظر بازی را ایفا می‌کرد. مردم واقعاً از آن شرایط بیزار بودند؛ کمتر از ده درصد شرکت‌کنندگان، فریب این حرف‌ها را می‌خوردند و از نظرشان VERO یک کودن بود.»

[irp posts=”20676″]

هدف شکتر اذیت کردن افراد نبود. پژوهشگران تمام مکالمات، حالت‌های چهره، بدن و پرسشنامه‌ها را ثبت کردند، تا الگوهایی را بیابند که اطلاعاتی درباره یک همکاری خوب در اختیارشان قرار می‌دهند.

نخستین مقاله درباره تیم‌های انسانی و هوش مصنوعی- انسان در ماه آوریل در مجله Nature’s Scientific Reports منتشر شد؛ اما شکتر چندین مقاله دیگر را برای سال آینده، در دست بررسی و نگارش دارد.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]