Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 در بحران‌های هوش مصنوعی، شیوه بازاریابی میزان آسیب‌پذیری برند را تعیین می‌کند

بررسی پنج دام ذهنی که می‌تواند شکست‌های محصولات فناورانه را به یک بحران برای برند تبدیل کند

در بحران‌های هوش مصنوعی، شیوه بازاریابی میزان آسیب‌پذیری برند را تعیین می‌کند

زمان مطالعه: 12 دقیقه

مقالات، کتاب‌ها و پادکست‌های بی‌شماری درباره شیوه‌های بازاریابی محصولات مبتنی بر هوش مصنوعی برای سرعت‌بخشیدن به روند پذیرش عمومی آن نوشته شده؛ اما موضوعی که کمتر به آن توجه شده این است که برنامه بازاریابی محصولات هوش مصنوعی به چه گونه‌ای باید باشد تا برای شکست‌های احتمالی آن نیز آمادگی وجود داشته باشد؟

در جدیدترین نسخه «مجله کسب‌وکار هاروارد» (July-August 2025)، «جولین د فریتاس» (Julian De Freitas) استاد «مدرسه کسب‌وکار هاروارد» در گزارشی با عنوان «Don’t Let an AI Failure Harm Your Brand»، یافته‌های هفت مطالعه مختلف خود در هفت سال گذشته در مورد خطرات و بینش‌هایی درباره درک و واکنش مصرف‌کنندگان نسبت به شکست‌های هوش مصنوعی از منظر بازاریابی را ارائه کرده است. از عقیده وی مدیران و کارشناسان بازاریابی باید پنج دام ذهنی اصلی در نگرش مصرف‌کنندگان، چه قبل از وقوع حادثه و چه بعد از آن را در نظر داشته باشند و در ادامه، به بررسی هر یک از این پنج دام می‌پردازیم.

درس عبرت

در اکتبر ۲۰۲۳ و در شهر سان‌فرانسیسکو، یک خودروی خودران (Automated Vehicle – AV) متعلق به شرکت «کروز» (Cruise – زیرمجموعه روبوتاکسی جنرال موتورز) در یک حادثه جدی دخیل بود. در این حادثه، یک خودروی نیسان با راننده انسانی با یک عابر پیاده تصادف کرد و عابر در جلوی مسیر خودروی خودران کروز پرتاب شد. طبق گزارش یک مشاور مهندسی مستقل که حادثه را بررسی کرده بود، هیچ راننده‌ای در آن شرایط نمی‌توانست از بروز تصادف جلوگیری کند. اما با این حال، گزارش اولیه شرکت کروز به نهادهای نظارتی، این نکته مهم را پنهان کرده بود که عابر پس از برخورد، حدود ۲۰ فوت (تقریبا ۶ متر) زیر خودروی خودران این شرکت کشیده شده اما با وجود جراحات شدید، زنده مانده است. (گزارش «CBS News» از این حادثه)

Cruise Robotaxi

هرچند کروز مقصر اصلی تصادف نبود؛ اما این حادثه بحران بزرگی را برای کروز به همراه داشت. عدم شفافیت در گزارش‌دهی نیز منجر به جریمه‌ای ۱.۵ میلیون‌دلاری از سوی «سازمان ملی ایمنی ترافیک جاده‌ای» (NHTSA – National Highway Traffic Safety Administration) ایالات متحده برای شرکت کروز شد. همچنین وزارت دادگستری ایالات متحده یک پرونده کیفری علیه کروز باز کرد که در نهایت منجر به پرداخت جریمه ۵۰۰ هزاردلاری شد.

اما ماجرا به همین‌جا ختم نشد. مجوز فعالیت کروز در سان‌فرانسیسکو لغو شد، نیمی از کارمندان آن تعدیل شدند، مدیرعامل استعفا داد و ارزش شرکت بیش از ۵۰ درصد سقوط کرد. این حادثه حتی بخش بزرگ‌تری از صنعت خودروهای خودران را نیز تحت تأثیر قرار داد. تنها چند ماه بعد، یک تاکسی خودران «وی‌مو» (Waymo – وابسته به شرکت Alphabet) در سان‌فرانسیسکو مورد حمله قرار گرفت و به آتش کشیده شد. سازمان NHTSA نیز تحقیقاتی را علیه چند شرکت فعال در این حوزه از جمله وی مو و «زوکس» (Zoox – متعلق به آمازون) آغاز کرد. در نهایت جنرال موتورز رسما اعلام کرد که تا پایان سال ۲۰۲۴، به‌طور کامل روند توسعه کسب‌وکار روبوتاکسی خود را متوقف می‌کند.

هوش مصنوعی با سرعتی بالا در همه چیز از خودروها گرفته تا چت‌بات‌ها به کار گرفته می‌شود، اما مثال کروز یک واقعیت تلخ را آشکار می‌کند. هوش مصنوعی بالاخره روزی شکست خواهد خورد و وقتی این اتفاق رخ دهد، بسیاری از سازمان‌ها، چه توسعه‌دهندگان هوش مصنوعی و چه استفاده‌کنندگان این سامانه‌ها، در معرض شدیدترین انتقادات عمومی از سوی جامعه و نهادهای نظارتی قرار می‌گیرند.

خلاصه ایده بیان‌شدن در گزارش

دام ذهنی ۱: مردم معمولاً در ابتدا هوش مصنوعی را مقصر می‌دانند.

برای درک بهتر اینکه چرا واکنش افکار عمومی و نهادهای نظارتی به حادثه کروز این‌قدر شدید بود، «د فریتاس» و همکاران مطالعه‌ای با بیش از ۵۰۰۰ شرکت‌کننده انجام دادند. در این مطالعه، سناریویی از یک تصادف مشابه با حادثه کروز برای افراد شرح داده شد که در آن یک راننده انسانی با یک عابر پیاده تصادف می‌کرد و عابر به مسیر مستقیم خودروی دوم که مقصر نبود پرتاب می‌شد. به نیمی از شرکت‌کنندگان گفته شد که خودروی دوم به‌صورت خودران هدایت می‌شد و به نیمی دیگر گفته شد که راننده این خودرو یک انسان است. سپس از شرکت‌کنندگان درخواست شد میزان مسئولیت سازنده خودروی دوم را ارزیابی کنند.

نتایج نشان داد که شرکت‌کنندگان زمانی که خودروی دوم خودران هدایت می‌شد، مسئولیت بیشتری را متوجه سازنده آن می‌دانستند؛ حتی با وجود اینکه در هر دو حالت، این خودرو هیچ کاری نمی‌توانست برای جلوگیری از تصادف انجام دهد. همچنین، شرکت‌کنندگان در مطالعه، شرکت سازنده خودروی خودران را بیشتر از راننده انسانی در همان سناریو مقصر می‌دانستند. این نتیجه بعدها توسط یک گروه پژوهشی مستقل در چین نیز تکرار شد و نشان داد که این سوگیری، محدود به یک فرهنگ خاص نیست و در زمینه‌های فرهنگی متفاوت نیز دیده می‌شود.

در چنین مواردی این نوع سوگیری در تصمیم‌گیری ناشی از این است که افراد تحت‌تأثیر تازگی فناوری خودروی خودران قرار گرفته‌اند و با این تصور که اگر خودروی خودران در صحنه نبود چه اتفاقی رخ می‌داد، تصمیم‌گیری می‌کنند. مهم‌تر آن که در این تصورات معمولاً به یک راننده کامل و بی‌نقص فکر می‌کنند و در نتیجه، هوش مصنوعی را با استانداردی بسیار بالاتر از واقعیت می‌سنجند. مثلاً نتیجه می‌گیرند که خودروی خودران می‌توانست قبل از برخورد، به طریقی منحرف شود و از تصادف جلوگیری کند حتی اگر چنین کاری عملاً غیرممکن باشد. این دست تصورات غیرواقع‌گرایانه باعث می‌شود مردم هوش مصنوعی را در شرایط مشابه، بیشتر از یک انسان مقصر بدانند.

در آزمایش‌های بعدی، تیم مطالعاتی دریافت که اگر تمرکز شرکت‌کنندگان را از جدید و نوظهور بودن فناوری خودروی خودران به سمت راننده انسانی مقصر (راننده‌ای که در ابتدا باعث حادثه شده) معطوف کند، درصد مقصر دانستن هوش مصنوعی کاهش میابد. وقتی توجه مردم از ویژگی «نو بودن» سیستم خودران برداشته و به عوامل مهم‌تر دیگری معطوف می‌شود، احتمال تصور سناریوهای خیالی و غیرواقعی نیز کاهش می‌یابد.

اما باید توجه داشت که تغییر تمرکز از نوظهور بودن فناوری به عوامل دیگر، نباید با «گمراه‌کردن عمدی ذی‌نفعان» اشتباه گرفته شود و مدیران نباید جزئیات مربوط به نقش هوش مصنوعی در یک حادثه را پنهان کنند. برای مثال، در حادثه کروز، گرچه مدیران شرکت تأکید داشتند که اشتباه از راننده انسانی بوده و مقصر است؛ اما این واقعیت را پنهان کردند که خودروی خودران کروز، عابر را برای مسافتی طولانی روی زمین کشیده است. وقتی این واقعیت آشکار شد، کنترل روایت رسانه‌ای از دست کروز خارج و اعتماد نهادهای نظارتی نسبت به آن خدشه‌دار شد.

دام ذهنی ۲: وقتی یک هوش مصنوعی شکست می‌خورد، اعتماد مردم به دیگر سامانه‌ها هم از بین می‌رود.

بازتاب‌های حادثه Cruise بر شرکت‌های دیگر مانند Waymo و Zoox نشان‌دهنده یک ریسک مهم دیگر در شکست‌های محصولات هوش مصنوعی است. وقتی هوش مصنوعی یک شرکت دچار خطا می‌شود، مردم غالباً گمان می‌کنند که سامانه‌های هوش مصنوعی شرکت‌های دیگر هم نیز همان قدر معیوب هستند. این پدیده که به «اثر آلودگی ذهنی» (Contamination Effect) معروف است می‌تواند نگرش عمومی نسبت به انواع مختلف فناوری‌های هوش مصنوعی را تحت‌تأثیر تصورات منفی‌نگرانه قرار دهد.

مطالعه‌ای از «چیارا لونگونی»، «لوکا چاین» و «الی کیونگ» (Chiara Longoni, Luca Cian, Ellie Kyung) نمونه بسیار خوبی از این تأثیرات این پدیده را ارائه می‌دهد. در این مطالعه به ۳۷۲۴ شرکت‌کننده مسئله زیر گزارش شد: «ایالت آرکانزاس در تخصیص مزایای خاص به یک فرد معلول دچار خطا شده است.» به نیمی از شرکت‌کنندگان گفته شد که این اشتباه توسط یک کارمند نیروی انسانی رخ‌داده و به نیمی دیگر گفته شد که یک الگوریتم مقصر این خطا بوده است. سپس از شرکت‌کنندگان پرسیده شد که به نظرشان چقدر احتمال دارد که در یک ایالت دیگر (کنتاکی)، یک کارمند انسانی یا یک الگوریتم مشابه نیز در تخصیص مزایا دچار خطا شود. نتایج نهایی نشان داد که شرکت‌کنندگان بیشتر احتمال می‌دادند که الگوریتم دچار خطا شود تا کارمند انسانی اهل کنتاکی.

پژوهشگران همین الگو را در نمونه‌های دیگری از شکست هوش مصنوعی مانند تخصیص اشتباه مزایای تأمین اجتماعی نیز تکرار کردند. یافته‌ها نشان داد که واکنش‌های این‌چنینی شرکت‌کنندگان ناشی از آن است که بسیاری از مردم درک دقیقی از نحوه عملکرد هوش مصنوعی ندارند. افراد معمولاً تصور می‌کنند که همه راهکارهای هوش مصنوعی متعلق به یک مدل مشابه و همگن هستند و ضعف‌ها و ویژگی‌ها مشابهی دارند؛ در نتیجه، مدل‌های هوش مصنوعی را سامانه‌هایی متمایز و با قابلیت‌ها و خطاهای خاص و منحصربه‌فرد هر یک نمی‌دانند.

برای اینکه کسب‌وکار شما از «اثر آلودگی ذهنی» شرکت‌های دیگر در امان بماند، باید تفاوت‌های محصول مبتنی بر هوش مصنوعی سازمان خود را نسبت به سایر رقبا برجسته و متمایز کنید. این تفاوت‌ها می‌توانند شامل الگوریتم‌های اختصاصی، تدابیر ایمنی ویژه و نظارت انسانی باشند. به‌عنوان‌مثال، شرکت Anthropic که مدل زبانی Claude را توسعه داده، به‌خوبی از این رویکرد بهره می‌برد. شرکت آنتروپیک، چت‌بات کلاد را «دستیار هوش مصنوعی نسل جدید» معرفی می‌کند که «برای ایمنی، دقت و امنیت آموزش دیده تا به افراد در انجام کارها به نحو احسن کمک کند.» آنتروپیک عنوان می‌کند که برای آموزش مدل کلاد از رویکردی که به‌عنوان «قانون‌مند» (Constitutional) شناخته می‌شود، استفاده می‌کند که شفاف‌تر، توضیح‌پذیرتر و منطبق با ارزش‌های انسانی است. این توصیفات به آنتروپیک کمک می‌کند مدل هوش مصنوعی Claude را از مدل‌های رقیب مشهوری مانند ChatGPT و Bard (بارد نام نسخه اولیه مدل Genimi گوگل است) متمایز کند. هرچند که هر یک از این مدل‌های با روش‌های متفاوتی آموزش دیده‌اند؛ اما گاهی به سوگیری و تولید اطلاعات نادرست نیز متهم شده‌اند. اما تفاوت در اینجاست که در صورت شکست هر یک از رقبا، آنتروپیک از قبل زیرساخت لازم برای کاهش اثرات پدیدی آلودگی ذهنی شکست را فراهم کرده است.

یک اقدام پیشگیرانه دیگر نیز این است که به‌صورت گسترده اطلاع‌رسانی کنید که هوش مصنوعی شما تحت نظارت انسانی عمل می‌کند و در نهایت این یک نیروی انسانی است که تصمیم نهایی را درباره اجرا و ارائه پیشنهاد مدل هوش مصنوعی می‌گیرد. وقتی در چنین سناریویی؛ یعنی در یک مدل یا رویکرد «انسان در حلقه» (Human-in-the-Loop) شکست یا اشتباهی رخ می‌دهد، مردم کمتر تمایل دارند گمان کنند که سایر مدل‌های هوش مصنوعی هم دچار مشکل هستند؛ چون احتمالاً چنین شکست‌هایی را نشانه‌ای از ناکارآمدی کلی هوش مصنوعی نمی‌دانند.

دام ذهنی ۳: مردم شرکت‌هایی را که در توانایی‌های هوش مصنوعی اغراق می‌کنند، بیشتر مقصر می‌دانند.

شرکت تسلا سامانه کمک‌راننده خود را «خلبان خودکار» یا «اتوپایلت» (Autopilot) می‌نامد، با اینکه استفاده از آن نیازمند نظارت فعال و پیوسته راننده است. اما پس از چندین حادثه که در آن‌ها سیستم اتوپایلت فعال بود، تسلا با شکایات قضایی متعددی مواجه شد؛ از جمله تحقیقاتی از سوی وزارت دادگستری ایالات متحده درباره اینکه آیا این برچسب تبلیغاتی، گمراه‌کننده محسوب می‌شود یا خیر. همچنین NHTSA نیز از تسلا خواسته که نحوه اطلاع‌رسانی عمومی‌اش با واقعیت توانمندی‌ها و محدودیت‌های این سیستم تطابق بیشتری داشته باشد. ایلان ماسک، مدیرعامل تسلا، در گذشته از انتخاب واژه اتوپایلت دفاع و عنوان کرده بود که این واژه صرفاً از صنعت هوانوردی وام گرفته شده؛ یعنی جایی که اتوپایلت به سامانه‌هایی اطلاق می‌شود که صرفاً یک دستیار است که به خلبان کمک می‌کنند نه این که خودش به‌عنوان یک سیستم تمام‌خودران هدایت وسیله را به دست بگیرد. اما آیا مردم و مصرف‌کنندگان هم همین برداشت را دارند؟

برای بررسی میزان گمراه‌کنندگی این مسئله، «د فریتاس» و همکاران مطالعه‌ای با ۹۴۹۲ شرکت‌کننده انجام دادند که هم شامل شبیه‌سازی رانندگی بود و هم سناریوهای فرضی تصادف. به همه شرکت‌کنندگان گفته شد که یک سازنده در حال معرفی خودروی جدیدی با قابلیت‌های خودران است؛ اما به نیمی از شرکت‌کنندگان گفته شد که این خودرو «اتوپایلت» نام دارد (که قابلیت بالای هوش مصنوعی را القا می‌کرد) و به نیمه دیگر گفته شد که نام آن «کمک‌خلبان» یا «کوپایلت» (Copilot) است (که سطح متوسطی از قابلیت‌های هوش مصنوعی را القا می‌کرد). سپس شرکت‌کنندگان در یک سناریوی شبیه‌سازی‌شده قرار گرفتند و از آن‌ها خواسته شد در صورت لزوم و احساس نیاز به دخالت، کنترل و هدایت خودرو را به دست بگیرند. در شبیه‌سازی، خودرو به یک چهارراه شلوغ نزدیک می‌شد و اگر شرکت‌کننده دخالت نمی‌کرد، با عابرانی که به‌صورت غیرمجاز عبور می‌کردند، تصادف می‌کرد.

در نتیجه این مطالعه، شرکت‌کنندگان زمانی که نام خودرو «اتوپایلت» بود، کنترل خودرو را نسبت به زمانی که نام آن «کوپایلت» بود، دیرتر به دست می‌گرفتند. این آمار نشان می‌دهد که صرفاً نام‌گذاری، باعث ایجاد حس اعتماد بیش از حد در افراد می‌شود. هرچه تصور شرکت‌کنندگان از توانایی سیستم صرفا بر اساس نام انتخابی آن بیشتر بود، دیرتر تصمیم به دخالت می‌گرفتند. گروه در مطالعات دیگری نیز دریافت که مردم شرکت‌هایی که از برچسب‌های القاکننده توانایی‌های سطح بالا استفاده می‌کنند را در بیشتر موارد مسئول و مقصر اصلی حوادث می‌دانند. به بیان ساده‌تر می‌توان نتیجه گرفت که نام‌گذاری‌ها و برچسب‌های تبلیغاتی، نه‌تنها منجر به بروز رفتارهای پرریسک‌تر از سوی مشتریان می‌شود بلکه در صورت وقوع خطا نیز تقصیرات و مسئولیت‌های بیشتری را متوجه شرکت می‌کند.

باتوجه‌به این نتایج، گروه مطالعاتی فرض کرد که یکی از شیوه‌های رایج بازاریابی؛ یعنی معرفی محصول به‌عنوان عالی‌ترین نسخه نسبت به سایر رقبا، در مواجهه با شکست‌های هوش مصنوعی نتیجه معکوس می‌دهد. مطالعات بعدی گروه نیز این فرضیه را تأیید کردند. زمانی که شرکت‌ها چنین ادعاهایی را مطرح می‌کردند؛ تصور عمومی از توانایی سامانه‌های هوش مصنوعی بالاتر می‌رفت و در نتیجه، در صورت شکست میزان مسئولیتی که مردم متوجه شرکت می‌دانستند هم افزایش می‌یافت. این یافته‌ها نشان می‌دهد که شعارهای تبلیغاتی مانند شعار جنرال موتورز که می‌گوید «انسان‌ها رانند‌ه‌های افتضاحی هستند» (Humans are terrible drivers)، ممکن است باعث شده باشد که مردم کروز را در بروز حوادث و حتی در تصادفاتی که تقصیر مستقیم آن با این شرکت نیست. بیش از حد معمول مقصر بدانند.

این تأثیرات به این دلیل رخ می‌دهند که سیستم‌های هوش مصنوعی در یک طیف گسترده از «نیمه‌خودران» که مسئولیت اصلی با انسان است تا «تمام‌خودران» که کنترل کامل در دست هوش مصنوعی است، قرار دارند. اما بیشتر مصرف‌کنندگان نمی‌دانند که هر سیستم دقیقاً در کجای این طیف قرار می‌گیرد. این مسئله برای کارشناسان بازاریابی یک دوراهی ایجاد می‌کند؛ در حالی که برچسب‌گذاری صادقانه منعکس‌کننده توان واقعی محصول است، اما شرکت‌ها اغلب وسوسه می‌شوند از برچسب‌هایی استفاده کنند که توانمندی‌ها را بزرگ‌نمایی می‌کند تا میزان فروش را افزایش دهند.

اگر از یک برچسب گمراه‌کننده برای بازاریابی محصولات هوش مصنوعی خود استفاده می‌کنید، می‌بایست در رسانه‌های دیگری مانند وب‌سایت رسمی یا حتی کاتالوگ محصول، به‌روشنی توان واقعی هوش مصنوعی را شرح دهید. تحقیقات نشان می‌دهد در شرایط بحرانی و شکست هوش مصنوعی؛ شرکت‌هایی که در کنار استفاده از برچسب‌های گمراه‌کننده اطلاعات دقیق و صادقانه‌ای درباره توانایی‌های واقعی محصولات خود ارائه می‌دهند نسبت به شرکت‌هایی که صرفاً فقط از برچسب گمراه‌کننده استفاده کرده‌اند، در قضاوت افکار عمومی تقصیرات کمتری را متوجه خود می‌بینند. البته یک گزینه دیگر هم این است که اساساً از ابتدا سعی کنید کمتر از برچسب‌های گمراه‌کننده استفاده کنید. گرچه این گزینه ممکن است باعث نشود که مردم تصورات سطح بالایی از توان عملیاتی سیستم داشته باشند، اما لااقل ریسک حقوقی و اعتباری ندارد.

دام ذهنی ۴: مردم نسبت به هوش مصنوعی انسان‌نما سخت‌گیرتر هستند.

شرکت‌ها روزبه‌روز بیشتر به استفاده از سیستم‌های هوش مصنوعی با ویژگی‌های انسانی روی می‌آورند. مثلاً اپلیکیشن سلامت روان «Wysa» از یک آواتار کارتونی برای کمک به کاربران در انجام تمرینات استفاده می‌کند و برنامه‌های همراهی و همدلی (Companion) مبتنی بر هوش مصنوعی مانند «Replika» از تصاویر واقع‌گرایانه انسانی بهره می‌برند تا احساسات و تعاملات انسانی را نمایش دهند.

این نشانه‌ها می‌تواند در ذهن کاربران این تصور را ایجاد کند که چت‌بات واقعاً دارای احساس، هدف، خواسته یا دیگر ویژگی‌های انسانی نیز هستند؛ در حالی که در واقع چنین نیست. ابزارهای هوش مصنوعی انسان‌نما (Humanized Al) نسبت به نسخه‌های خنثی، مزایای زیادی برای شرکت‌ها به همراه دارند؛ این ابزارها تمایل مشتریان به خرید، سطح اعتماد، وفاداری به برند، همکاری با درخواست‌های سیستم و حتی آمادگی برای افشای اطلاعات شخصی کاربر را افزایش می‌دهند. این اثرات حتی زمانی که کاربر می‌داند با یک ربات در حال تعامل است، همچنان ادامه دارند.

در مطالعه‌ای از «راجی سرینیواسان» و «گولن ساریال‌آبی» (Raji Srinivasan, Gülen Sarial-Abi)، به همه شرکت‌کنندگان گفته شد که یک شرکت سرمایه‌گذاری مالی دچار اشتباهی شده که به ضرر مشتریان منجر شده است. به نیمی از افراد گفته شد که خطا مربوط به یک «برنامه الگوریتمی» بوده و به نیمه دیگر گفته شد که یک «هوش مصنوعی انسان‌نما» به نام «چارلز» (Charles) مسئول آن بوده است. نتایج نشان داد که نگرش نسبت به برند، زمانی که هوش مصنوعی انسان‌نما مقصر اعلام شد، منفی‌تر بوده است. مطالعات بعدی نیز نشان داد که افراد برای ربات‌های انسان‌نما، برخی توانایی‌های ذهنی مانند به خاطر سپردن، درک، برنامه‌ریزی و تفکر قائل‌اند و به همین دلیل، تقصیرات و مسئولیت‌های بیشتری را در برابر شکست‌ها به آن‌ها نسبت می‌دهند. در مطالعه‌ای دیگر به رهبری «کمی کرولیک» (Cammy Crolic) نیز مشخص شد که شرکت‌کنندگان نسبت به بروز خطا در یک چت‌بات، زمانی واکنش منفی‌تری نشان می‌دهند که آن چت‌بات از ظاهر و زبان انسانی، مانند معرفی خود با نام «جیمی» (Jamie)، استفاده از ضمایر اول‌شخص و آواتار زنانه استفاده می‌کرد. این یافته نشان می‌دهد که ویژگی‌های انسان‌نما اثری تشدیدکننده بر واکنش‌های منفی کاربران در زمان شکست و برزو خطا دارند.

استفاده از چت‌بات‌ها در حوزه‌هایی که احتمال عصبانیت و اعتراضی بودن لحن مشتریان زیاد است، باید با احتیاط بسیاری انجام شود. در مطالعه‌ای دیگر به رهبری کرولیک، پژوهشگران حدود ۵۰۰٬۰۰۰ گفت‌وگوی مشتریان با چت‌بات‌های یک شرکت مخابراتی بین‌المللی را تحلیل کردند. آن‌ها دریافتند که مشتریان عصبانی هر چه بیشتر با چت‌باتی که مثل یک انسان رفتار می‌کرد (مثلاً با خطاب قراردادن آن با نام کوچک) تعامل و گفت‌وگو می‌کردند، میزان رضایتشان نیز بیشتر افت می‌کرد. یکی از راه‌های کاهش این اثر، استفاده گزینشی از چت‌بات‌های انسان‌نما در حوزه‌های بی‌تنش‌تر مانند جست‌وجوی محصول و پرهیز از به‌کارگیری آن‌ها در موقعیت‌هایی مانند پشتیبانی مشتریان است که معمولاً با مشتریان عصبانی سروکار دارند. راه‌حل دیگری نیز این است که انتظارات را از همان آغاز تعامل، تعدیل کرد. به‌عنوان‌مثال چت‌بات «اسلک» (Slack) در همان ابتدای شروع مکالمه می‌گوید:

«سلام، من Slackbot هستم. سعی می‌کنم مفید باشم. (اما هنوز فقط یک بات هستم، ببخشید!)»

“Hello, I’m Slackbot. I try to be helpful. (But I’m still just a bot. Sorry!)”

چت‌بات‌هایی که چنین شفاف‌سازی‌هایی را ارائه می‌دهند در صورت بروز اشتباه، کمتر باعث عصبانیت کاربران می‌شوند.

دام ذهنی ۵: مردم از اولویت‌گذاری برنامه‌ریزی‌شده در هوش مصنوعی خشمگین می‌شوند.

در سال ۲۰۱۶، یک مدیر ارشد مرسدس‌بنز اظهار داشت که در طراحی خودروهای خودران، اولویت با ایمنی سرنشینان داخل خودرو خواهد بود، نه عابران پیاده یا سایر خودروها و دیگر عناصر موجود در جاده. استدلال مرسدس ساده بود؛ اگر فقط جان یک نفر را بتوان نجات داد، آن فرد می‌بایست سرنشین خودرو باشد. این اظهارنظر موجی از خشم رسانه‌ای به دنبال داشت. یکی از روزنامه‌های زرد، مرسدس را به این متهم کرد که «ترجیح می‌دهد از روی کودک رد شود تا اینکه برای نجات جای وی مسیرش را تغییر دهد». چند هفته بعد، مرسدس‌بنز به طور رسمی توضیح داد که نه مهندسان و نه سیستم‌های خودران نباید در مورد ارزش نسبی جان انسان‌ها قضاوت کنند. این واکنش احساسی نشان می‌دهد که مردم، اولویت‌گذاری گروهی در الگوریتم‌ها، مثلاً بر اساس سن، جنسیت یا جایگاه مشتری را غیراخلاقی می‌دانند.

برای آزمودن این فرضیه، «د فریتاس» به‌همراه «مینا چیکارا» (Mina Cikara)، استاد دانشگاه هاروارد، مطالعه‌ای با ۸۲۶ شرکت‌کننده آمریکایی انجام دادند. در این مطالعه از شرکت‌کنندگان درخواست شد تصور کنند که یک خودروی کاملاً خودران در موقعیتی دشوار قرار گرفته؛ مثلاً بین برخورد با یک فرد مسن یا یک کودک، یکی را باید انتخاب کند. در سناریوها، گاهی تصمیم‌گیری خودرو بر اساس انتخاب تصادفی و گاهی بر پایه اولویت‌گذاری برنامه‌ریزی‌شده برای یک گروه خاص بوده است. یافته‌ها نشان دادند که شرکت‌کنندگان زمانی که خودرو بر اساس یک ترجیح یا اولویت برنامه‌ریزی‌شده عمل می‌کرد، در مقایسه با زمانی که تصمیم‌گیری تصادفی باشد، خشم و عصبانیت بیشتری از خود نشان می‌دادند. این نتیجه‌گیری نشان می‌دهد که شرکت‌ها بهتر است از افشای ترجیحات برنامه‌ریزی‌شده و گروه‌محور اجتناب کنند. در برخی موارد، حتی ممکن است بهتر باشد اصلاً برچسب‌های داده‌ای؛ مانند نژاد، سن یا جنسیت برای آموزش یا تصمیم‌گیری الگوریتم‌ها جمع‌آوری و استفاده نشوند.

رویکرد جایگزین این است که به‌جای اولویت‌گذاری بر اساس ویژگی‌های فردی، از معیارهای «ساختاری» استفاده شود. به‌عنوان‌مثال نجات جان افراد بیشتر در برابر افراد کمتر، نمونه‌ای از این معیارهای ساختاری است. مطالعه‌ای از «یوخانان بیگمن» و «کرت گری» (Yochanan Bigman, Kurt Gray) نیز نشان داد که مردم بیشتر از تصمیمات بر اساس معیارهای ساختاری حمایت می‌کنند تا معیارهای گروه‌محور؛ احتمالاً چون در معیارهای ساختاری، یک منطق فایده‌گرایانه و قابل‌درک وجود دارد که بیشتر افراد می‌توانند آن را درک کنند و راحت‌تر بپذیرند و قانع شوند.

بروز خطا در هوش مصنوعی اجتناب‌ناپذیر است.

مدیران و کارشناسان بازاریابی می‌بایست بپذیرند که همان اقداماتی که امروز به پذیرش بیشتر هوش مصنوعی منجر می‌شود، ممکن است در آینده و در زمان وقوع خطا و شکست، دردسرساز شوند؛ به‌ویژه وقتی آن اقداماتی بر برتری و مزایای خاص و ویژه‌ای در کمپین‌های تبلیغاتی و بازاریابی تأکید دارند؛ بنابراین پیش از تدوین استراتژی بازاریابی، حتماً به این پنج دام روانی مهم در نگرش عمومی نسبت به هوش مصنوعی توجه داشته باشید. ارزیابی این ریسک‌ها می‌تواند به سازمان شما کمک کند تا هم در حال حاضر، محصولات مبتنی بر هوش مصنوعی خود را به‌خوبی بفروشد و هم در آینده، مسئولیت حقوقی و آسیب به برند را در صورت بروز خطا کاهش دهد.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]