هوش هیجانی
آموزش‌های پایه‌ای هوش مصنوعیاخباریادگیری عمیق

آیا هوش مصنوعی می‌تواند به هوش هیجانی مجهز شود؟

    0
    (مدت زمان مطالعه: ۵ دقیقه)

    دکتر رانا ال‌کَلیوبی، نویسنده کتاب «دختر رمزگشایی شده Girl Decoded»، یکی از متخصصان برجسته حوزه «همدلی و فناوری» و «اخلاقِ هوش مصنوعی» است. در ماه ژوئن، شرکت Smart Eye شرکت Affectiva، شرکتی که ال‌کلیوبی یکی از بنیانگذاران آن است، را خریداری نمود. در این گفتگوی مجازی پای صحبت دکتر ال‌کلیوبی می‌نشینیم تا از هوش هیجانی و مشوق‌های خود بگوید و همچنین به ما بگوید چگونه نوآوری‌های جدید نحوه ارتباط ما با فناوری و همچنین نحوه برقراری ارتباط و تعامل با سایر انسان‌ها را تغییر خواهد داد.

    دکتر ال‌کلیوبی، به ما بگویید که سفر خود را برای کشف نقش احساسات در چشم انداز فناوری دنیای امروز از کجا آغاز کردید؟

    من در قاهره متولد شدم. والدینم هر دو در صنعت فناوری مشغول به کار بودند. بنابراین، در سنین جوانی در معرض هوش مصنوعی قرار گرفتم و این دنیا الهام‌بخش من شد. تحصیلات و فعالیت‌های شغلی‌ام ابتدا مرا به کمبریج و بعدها به موسسه فناوری ماساچوست (MIT) کشاند، به همین دلیل مدت زمان زیادی را برای ارتباط با خانواده پشت دستگاه گذراندم. [در این مدت] ارتباطات رودرروی بسیار کمی داشتیم و چیزی که مرا تحت تأثیر قرار داد این بود که اگرچه با کمک فناوری پیوسته با خانواده و دوستان در ارتباط بودم، اما تقریباً غیرممکن بود بفهمم از لحاظ احساسی و ذهنی بر عزیزانم چه می‌گذرد.

    بزرگترین دست‌آورد شما از این تجربه چه بود؟

    برای من روشن شد که بیشتر ارتباطات ما از طریق نشانه‌های غیرکلامی منتقل می‌شود، مانند حالات چهره، لحنِ صدا و زبانِ بدن. اما، در بیشتر موارد، هنگامی که با گوشی‌ هوشمند و سایر دستگاه با دیگران ارتباط برقرار می‌کنیم، این سیگنال‌ها از بین می‌روند.

    در حین انجام تحقیقاتم در زمینه علوم رایانه و هوش مصنوعی، متوجه شدم که فناوری از هوش شناختی (IQ) زیادی برخوردار است، اما هوش هیجانی (EQ) ندارد. این امر نه تنها برای نحوه ارتباط ما با فناوری مشکل‌ساز است، بلکه بر نحوه ارتباط و تعامل ما با یکدیگر نیز تاثیر می‌گذارد.

    این یافته چه تاثیری بر تحقیقات و فعالیت‌های شغلی شما گذاشت؟

    تصمیم گرفتم به شیوه‌ای جدید صفات انسانی را به فناوری اضافه کنم. می‌دانستم که هوش هیجانی و توانایی درک حالات شناختیِ دیگران می‌تواند به سازگاری سیستم‌های در حال توسعه در شرایط واقعی کمک کند. این تحقیقات فرصتی طلایی در اختیار ما قرار داد تا نحوه برقراری ارتباط انسان با ماشین و انسان با انسان را یک‌بار دیگر به تصویر بکشیم. مشخص شد که این فرصت در چندین حوزه امکان‌پذیر و مورد نیاز است.

    چگونه توانستید این فرصت‌ها را دنبال کنید؟

    رویکرد ما در Affectiva، که اخیراً به شرکت Smart Eye پیوسته است، طراحی نرم‌افزاری بود که می‌توانست احساسات و حالت‌های شناختی را از طریق تحلیل حالات چهره‌ی دریافتی از دوربین‌ها شناسایی کند.

    یکی از چالش‌های پیش‌روی ما تاثیرات احتمالی و بیشمار این فناوری بر جوامع بود. لذا، تصمیم گرفتیم بر روی مشکلات بزرگی تمرکز کنیم که با برطرف کردنِ آن‌ها می‌توانستیم کیفیت زندگی را بهبود ببخشیم یا حتی جان انسان‌ها را نجات دهیم؛ مشکلاتی که با حل آن‌ها، نوآوری‌های ما به طور طبیعی در کنار سایر اکوسیستم‌های رو به رشد قرار می‌گرفت.

    پس از تجزیه و تحلیل تحولاتِ صنعت خودرو، سعی کردیم به مسائل مربوط به ایمنی خودرو و تجربه سواری با خودروهای خودران بپردازیم.

    هوش هیجانی

    لطفا در این باره بیشتر توضیح دهید.

    تولیدکنندگان خودرو و کامیون در حال حاضر از دوربین‌هایی که بیرون خودرو نصب شده‌اند برای طیف وسیعی از کاربردهای ایمنی و عملیاتی استفاده می‌کنند. ما متوجه شدیم که اگر در داخل اتومبیل از دوربین‌ استفاده کنیم، می‌توانیم هوش مصنوعی و یادگیری ماشین را برای شناسایی احساسات پیچیده و ظریف و حالات شناختی سرنشین‌ها بکار بگیریم، مواردی از قبیل چرت‌زدن یا خواب‌آلودگی راننده، ارسال پیام کوتاه یا تحت تأثیر قرار گرفتن. در صورت لزوم، سیستم می‌تواند پیام هشدار ارسال کند یا اگر اتومبیل قابلیت خودران داشته باشد، کنترل خودرو را در اختیار بگیرد.

    استفاده از خودروی مجهز به هوش مصنوعی برای برگرداندن ایمنی به جاده‌ها از اولین کاربرد‌های فناوری ما است. با این حال، اگر درک بهتری از رویدادهای داخل کابین داشته باشیم، می‌توانیم بر اساس حالات مشاهده شده از یادگیری عمیق برای بهبود شرایط کابین استفاده کنیم؛ کارهایی از قبیل پخشِ موسیقی، تنظیم نور و دما یا هر چیزی که در نهایت موجبات راحتی بیشتر سرنشینان را فراهم ‌کند.

    با توجه به گسترش برنامه‌هایی که از هوش هیجانی برای انجام محاسبات کمک می‌گیرند، چه خطراتی شما را نگران کرده است و چگونه با آن‌ها برخورد می‌کنید؟

    متاسفانه با گسترش هوش هیجانی، هوش مصنوعی و یادگیری ماشین در دنیای امروز برای پیشبرد اهداف بدخواهانه نیز به کار برده می‌شوند؛ حتی ممکن است این فناوری‌ها عواقب ناخواسته‌ای به همراه داشته باشند. بنابراین، می‌دانیم این نوع فناوری‌ها چه نقص‌هایی ممکن است داشته باشند. اهمیت این مسئله برای ما پوشیده نیست و همیشه تلاش کرده‌ایم راه‌های سوء‌استفاده از فناوری‌های شناسایی حالت عاطفی را پیدا کنیم.

    از نظر عملی و فارغ از شرکت‌هایی که با آن‌ها کار می‌کنیم و نحوه استفاده آن‌ها از فناوری، این هدف کماکان سرلوحه کسب‌وکار ما قرار دارد. در صورت نقض حریم خصوصی، برای مثال اگر شرکت قصد نظارت یا دروغ‌سنجی داشته باشد و مشتری اجازه بازرسی ندهد، آن شرکت را کنار می گذاریم.

    از نقطه نظر فنی، اگر تیم‌های توسعه، آموزش، و استقرار الگوریتم‌ها و مدل‌ها را از پیشینه‌های مختلف انتخاب نکنید، این احتمال وجود دارد که به سوگیری در مقیاس جهانی دامن بزنید.

    برای نمونه، اعضای تیم برچسب‌گذاری داده در قاهره با حجاب کامل در محل کار حضور می‌یابند. آنها خاطرنشان کردند که مدل‌های آموزشی منعکس‌کننده افراد محجبه و سایر اقلیت‌ها نیستند. پس از شناسایی این مسئله، برای آموزش بهتر مدل‌های خود، داده‌های جدیدی ارائه کردیم. تنوع تیمی باعث شد بتوانیم مدل‌های خود را تکمیل و آن‌ها را به مدل‌هایی تبدیل کنیم که نماینده بهتری از گروه‌های جمعیتی بزرگ‌تر باشند.

    یا در مثالی دیگر، یک سازنده خودرو اروپایی به استفاده از فناوری شناسایی حالات چهره برای درک بهتر و بهبود تجربه سرنشینان علاقه‌مند است. با این حال، متوجه شدیم که دیتاست‌ آن‌ها متشکل از تصاویر جمعیتی همگن از مردان سفیدپوستِ چشم آبی است و از آنجا که اطلاع داشتیم این دیتاست، نمی‌تواند نماینده مشتریان این سازنده در سرتاسر جهان باشد، به راحتی می‌شد پیش‌بینی کرد که نتایج تحلیل‌ها برای برخی از گروه‌های جمعیتی دقیق نخواهد بود.

    هنگامی که مدلها و الگوریتمها پس از سپری کردنِ مراحلِ ساخت و آزمایش به مرحله اجرا می‌رسند، رویکرد شما برای رسیدگی به این گونه مسائل سوگیرانه چیست؟

    به محض رسیدن به مرحله تولید، باید بتوانید نحوه عملکرد مدل را مشاهده کرده و نسبت به آن شناخت پیدا کنید. اگر بخشی کار نمی‌کند، نه تنها باید مشکل را پیدا کنید، بلکه باید ابزاری داشته باشید که بتواند علت نا‌هماهنگی بین آزمایشگاه و دنیای واقعی را پیدا کند. در پایان، زیرساخت‌های شما باید به قدر کافی انعطاف‌پذیر باشند تا بتوانید مدل را تکرار کرده و دوباره آموزش دهید و اطمینان حاصل کنید که مدل عملکرد مطلوبی دارد و هیچگونه سوگیری نسبت به گروه‌های اقلیتی وجود ندارد. در نهایت، اگر فناوری‌های هوش مصنوعی اخلاق‌مدار نباشند، برای جامعه و کسب‌وکارها مضر هستند. اگر هوش مصنوعی آن‌طور که در نظر گرفته شده برای همه افراد مناسب نباشد، استفاده از آن فایده چندانی نخواهد داشت.

    در مورد تنوع در هوش مصنوعی صحبت‌هایی شده است، به طور کلی دیدگاه شما در مورد تنوع در فناوری چیست؟

    تنوع رو به پیشرفت استشرکت‌های سرمایه‌گذاری خطرپذیر بیش از پیش به دنبال مدل‌هایی هستند که بتواند نماینده گروه‌های اقلیتی باشد و در نتیجه این شرکت‌ها خواهان تامین بودجه از سرمایه‌گذارانی با پیشینه‌های متنوع هستند. هرچند این تغییر با سرعتی که انتظار داشتم پیش ‌نمی‌رود. من همیشه سعی کرده‌ام هنگام تامین بودجه و جست‌وجو برای شرکت‌های سرمایه‌گذار، ساختار شرکت‌های سرمایه‌گذار خطرپذیر را تحلیل کنم و به شرکت‌هایی گرایش داشتم تیم‌های شرکا، سرمایه‌گذاری و عملیاتی متنوعی داشته باشند. شرکت‌هایی که تنوع بیشتری دارند، چالش‌هایی را که در صدد رفع آن‌ها هستیم، بهتر درک می‌کنند و بیشتر می‌توانند برای ما ارزش آفرینی کنند.

    به طور کلی، تقریباً در تمام مصاحبه‌هایم از حضور گسترده زنان در حوزه فناوری صحبت کرده‌ام، خواه از زنان سرمایه‌گذاران باشند، یا استارت‌آپ‌ها یا مشتریان. حضور زنان بسیار مهم است. لازم است اکوسیستمی کامل از زنان و رهبران متنوع ایجاد کنیم. به طور خاص در مورد زنان، لازم است سیاست راهبری خود را بر پایه بهبود حضور بنیانگذاران و سرمایه‌گذاران زن بنا نهیم و الگوهای بیشتری به دختران جوان عرضه کنیم تا قدم در این راه بردارند و به ارتقای دیگران کمک کنند.

    این مطلب چه میزان برای شما مفید بوده است؟
    [کل: ۰ میانگین: ۰]

    چرا روسیه به دنبال ساخت جنگنده رادارگریز با دو سرنشین است؟

    مقاله قبلی

    استفاده از هوش مصنوعی برای شناسایی چاله آسفالت ها

    مقاله بعدی

    شما همچنین ممکن است دوست داشته باشید

    نظرات

    پاسخ دهید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *