بررسی پنج دام ذهنی که میتواند شکستهای محصولات فناورانه را به یک بحران برای برند تبدیل کند
در بحرانهای هوش مصنوعی، شیوه بازاریابی میزان آسیبپذیری برند را تعیین میکند
مقالات، کتابها و پادکستهای بیشماری درباره شیوههای بازاریابی محصولات مبتنی بر هوش مصنوعی برای سرعتبخشیدن به روند پذیرش عمومی آن نوشته شده؛ اما موضوعی که کمتر به آن توجه شده این است که برنامه بازاریابی محصولات هوش مصنوعی به چه گونهای باید باشد تا برای شکستهای احتمالی آن نیز آمادگی وجود داشته باشد؟
در جدیدترین نسخه «مجله کسبوکار هاروارد» (July-August 2025)، «جولین د فریتاس» (Julian De Freitas) استاد «مدرسه کسبوکار هاروارد» در گزارشی با عنوان «Don’t Let an AI Failure Harm Your Brand»، یافتههای هفت مطالعه مختلف خود در هفت سال گذشته در مورد خطرات و بینشهایی درباره درک و واکنش مصرفکنندگان نسبت به شکستهای هوش مصنوعی از منظر بازاریابی را ارائه کرده است. از عقیده وی مدیران و کارشناسان بازاریابی باید پنج دام ذهنی اصلی در نگرش مصرفکنندگان، چه قبل از وقوع حادثه و چه بعد از آن را در نظر داشته باشند و در ادامه، به بررسی هر یک از این پنج دام میپردازیم.
درس عبرت
در اکتبر ۲۰۲۳ و در شهر سانفرانسیسکو، یک خودروی خودران (Automated Vehicle – AV) متعلق به شرکت «کروز» (Cruise – زیرمجموعه روبوتاکسی جنرال موتورز) در یک حادثه جدی دخیل بود. در این حادثه، یک خودروی نیسان با راننده انسانی با یک عابر پیاده تصادف کرد و عابر در جلوی مسیر خودروی خودران کروز پرتاب شد. طبق گزارش یک مشاور مهندسی مستقل که حادثه را بررسی کرده بود، هیچ رانندهای در آن شرایط نمیتوانست از بروز تصادف جلوگیری کند. اما با این حال، گزارش اولیه شرکت کروز به نهادهای نظارتی، این نکته مهم را پنهان کرده بود که عابر پس از برخورد، حدود ۲۰ فوت (تقریبا ۶ متر) زیر خودروی خودران این شرکت کشیده شده اما با وجود جراحات شدید، زنده مانده است. (گزارش «CBS News» از این حادثه)
هرچند کروز مقصر اصلی تصادف نبود؛ اما این حادثه بحران بزرگی را برای کروز به همراه داشت. عدم شفافیت در گزارشدهی نیز منجر به جریمهای ۱.۵ میلیوندلاری از سوی «سازمان ملی ایمنی ترافیک جادهای» (NHTSA – National Highway Traffic Safety Administration) ایالات متحده برای شرکت کروز شد. همچنین وزارت دادگستری ایالات متحده یک پرونده کیفری علیه کروز باز کرد که در نهایت منجر به پرداخت جریمه ۵۰۰ هزاردلاری شد.
اما ماجرا به همینجا ختم نشد. مجوز فعالیت کروز در سانفرانسیسکو لغو شد، نیمی از کارمندان آن تعدیل شدند، مدیرعامل استعفا داد و ارزش شرکت بیش از ۵۰ درصد سقوط کرد. این حادثه حتی بخش بزرگتری از صنعت خودروهای خودران را نیز تحت تأثیر قرار داد. تنها چند ماه بعد، یک تاکسی خودران «ویمو» (Waymo – وابسته به شرکت Alphabet) در سانفرانسیسکو مورد حمله قرار گرفت و به آتش کشیده شد. سازمان NHTSA نیز تحقیقاتی را علیه چند شرکت فعال در این حوزه از جمله وی مو و «زوکس» (Zoox – متعلق به آمازون) آغاز کرد. در نهایت جنرال موتورز رسما اعلام کرد که تا پایان سال ۲۰۲۴، بهطور کامل روند توسعه کسبوکار روبوتاکسی خود را متوقف میکند.
هوش مصنوعی با سرعتی بالا در همه چیز از خودروها گرفته تا چتباتها به کار گرفته میشود، اما مثال کروز یک واقعیت تلخ را آشکار میکند. هوش مصنوعی بالاخره روزی شکست خواهد خورد و وقتی این اتفاق رخ دهد، بسیاری از سازمانها، چه توسعهدهندگان هوش مصنوعی و چه استفادهکنندگان این سامانهها، در معرض شدیدترین انتقادات عمومی از سوی جامعه و نهادهای نظارتی قرار میگیرند.
دام ذهنی ۱: مردم معمولاً در ابتدا هوش مصنوعی را مقصر میدانند.
برای درک بهتر اینکه چرا واکنش افکار عمومی و نهادهای نظارتی به حادثه کروز اینقدر شدید بود، «د فریتاس» و همکاران مطالعهای با بیش از ۵۰۰۰ شرکتکننده انجام دادند. در این مطالعه، سناریویی از یک تصادف مشابه با حادثه کروز برای افراد شرح داده شد که در آن یک راننده انسانی با یک عابر پیاده تصادف میکرد و عابر به مسیر مستقیم خودروی دوم که مقصر نبود پرتاب میشد. به نیمی از شرکتکنندگان گفته شد که خودروی دوم بهصورت خودران هدایت میشد و به نیمی دیگر گفته شد که راننده این خودرو یک انسان است. سپس از شرکتکنندگان درخواست شد میزان مسئولیت سازنده خودروی دوم را ارزیابی کنند.
نتایج نشان داد که شرکتکنندگان زمانی که خودروی دوم خودران هدایت میشد، مسئولیت بیشتری را متوجه سازنده آن میدانستند؛ حتی با وجود اینکه در هر دو حالت، این خودرو هیچ کاری نمیتوانست برای جلوگیری از تصادف انجام دهد. همچنین، شرکتکنندگان در مطالعه، شرکت سازنده خودروی خودران را بیشتر از راننده انسانی در همان سناریو مقصر میدانستند. این نتیجه بعدها توسط یک گروه پژوهشی مستقل در چین نیز تکرار شد و نشان داد که این سوگیری، محدود به یک فرهنگ خاص نیست و در زمینههای فرهنگی متفاوت نیز دیده میشود.
در چنین مواردی این نوع سوگیری در تصمیمگیری ناشی از این است که افراد تحتتأثیر تازگی فناوری خودروی خودران قرار گرفتهاند و با این تصور که اگر خودروی خودران در صحنه نبود چه اتفاقی رخ میداد، تصمیمگیری میکنند. مهمتر آن که در این تصورات معمولاً به یک راننده کامل و بینقص فکر میکنند و در نتیجه، هوش مصنوعی را با استانداردی بسیار بالاتر از واقعیت میسنجند. مثلاً نتیجه میگیرند که خودروی خودران میتوانست قبل از برخورد، به طریقی منحرف شود و از تصادف جلوگیری کند حتی اگر چنین کاری عملاً غیرممکن باشد. این دست تصورات غیرواقعگرایانه باعث میشود مردم هوش مصنوعی را در شرایط مشابه، بیشتر از یک انسان مقصر بدانند.
در آزمایشهای بعدی، تیم مطالعاتی دریافت که اگر تمرکز شرکتکنندگان را از جدید و نوظهور بودن فناوری خودروی خودران به سمت راننده انسانی مقصر (رانندهای که در ابتدا باعث حادثه شده) معطوف کند، درصد مقصر دانستن هوش مصنوعی کاهش میابد. وقتی توجه مردم از ویژگی «نو بودن» سیستم خودران برداشته و به عوامل مهمتر دیگری معطوف میشود، احتمال تصور سناریوهای خیالی و غیرواقعی نیز کاهش مییابد.
اما باید توجه داشت که تغییر تمرکز از نوظهور بودن فناوری به عوامل دیگر، نباید با «گمراهکردن عمدی ذینفعان» اشتباه گرفته شود و مدیران نباید جزئیات مربوط به نقش هوش مصنوعی در یک حادثه را پنهان کنند. برای مثال، در حادثه کروز، گرچه مدیران شرکت تأکید داشتند که اشتباه از راننده انسانی بوده و مقصر است؛ اما این واقعیت را پنهان کردند که خودروی خودران کروز، عابر را برای مسافتی طولانی روی زمین کشیده است. وقتی این واقعیت آشکار شد، کنترل روایت رسانهای از دست کروز خارج و اعتماد نهادهای نظارتی نسبت به آن خدشهدار شد.
دام ذهنی ۲: وقتی یک هوش مصنوعی شکست میخورد، اعتماد مردم به دیگر سامانهها هم از بین میرود.
بازتابهای حادثه Cruise بر شرکتهای دیگر مانند Waymo و Zoox نشاندهنده یک ریسک مهم دیگر در شکستهای محصولات هوش مصنوعی است. وقتی هوش مصنوعی یک شرکت دچار خطا میشود، مردم غالباً گمان میکنند که سامانههای هوش مصنوعی شرکتهای دیگر هم نیز همان قدر معیوب هستند. این پدیده که به «اثر آلودگی ذهنی» (Contamination Effect) معروف است میتواند نگرش عمومی نسبت به انواع مختلف فناوریهای هوش مصنوعی را تحتتأثیر تصورات منفینگرانه قرار دهد.
مطالعهای از «چیارا لونگونی»، «لوکا چاین» و «الی کیونگ» (Chiara Longoni, Luca Cian, Ellie Kyung) نمونه بسیار خوبی از این تأثیرات این پدیده را ارائه میدهد. در این مطالعه به ۳۷۲۴ شرکتکننده مسئله زیر گزارش شد: «ایالت آرکانزاس در تخصیص مزایای خاص به یک فرد معلول دچار خطا شده است.» به نیمی از شرکتکنندگان گفته شد که این اشتباه توسط یک کارمند نیروی انسانی رخداده و به نیمی دیگر گفته شد که یک الگوریتم مقصر این خطا بوده است. سپس از شرکتکنندگان پرسیده شد که به نظرشان چقدر احتمال دارد که در یک ایالت دیگر (کنتاکی)، یک کارمند انسانی یا یک الگوریتم مشابه نیز در تخصیص مزایا دچار خطا شود. نتایج نهایی نشان داد که شرکتکنندگان بیشتر احتمال میدادند که الگوریتم دچار خطا شود تا کارمند انسانی اهل کنتاکی.
پژوهشگران همین الگو را در نمونههای دیگری از شکست هوش مصنوعی مانند تخصیص اشتباه مزایای تأمین اجتماعی نیز تکرار کردند. یافتهها نشان داد که واکنشهای اینچنینی شرکتکنندگان ناشی از آن است که بسیاری از مردم درک دقیقی از نحوه عملکرد هوش مصنوعی ندارند. افراد معمولاً تصور میکنند که همه راهکارهای هوش مصنوعی متعلق به یک مدل مشابه و همگن هستند و ضعفها و ویژگیها مشابهی دارند؛ در نتیجه، مدلهای هوش مصنوعی را سامانههایی متمایز و با قابلیتها و خطاهای خاص و منحصربهفرد هر یک نمیدانند.
برای اینکه کسبوکار شما از «اثر آلودگی ذهنی» شرکتهای دیگر در امان بماند، باید تفاوتهای محصول مبتنی بر هوش مصنوعی سازمان خود را نسبت به سایر رقبا برجسته و متمایز کنید. این تفاوتها میتوانند شامل الگوریتمهای اختصاصی، تدابیر ایمنی ویژه و نظارت انسانی باشند. بهعنوانمثال، شرکت Anthropic که مدل زبانی Claude را توسعه داده، بهخوبی از این رویکرد بهره میبرد. شرکت آنتروپیک، چتبات کلاد را «دستیار هوش مصنوعی نسل جدید» معرفی میکند که «برای ایمنی، دقت و امنیت آموزش دیده تا به افراد در انجام کارها به نحو احسن کمک کند.» آنتروپیک عنوان میکند که برای آموزش مدل کلاد از رویکردی که بهعنوان «قانونمند» (Constitutional) شناخته میشود، استفاده میکند که شفافتر، توضیحپذیرتر و منطبق با ارزشهای انسانی است. این توصیفات به آنتروپیک کمک میکند مدل هوش مصنوعی Claude را از مدلهای رقیب مشهوری مانند ChatGPT و Bard (بارد نام نسخه اولیه مدل Genimi گوگل است) متمایز کند. هرچند که هر یک از این مدلهای با روشهای متفاوتی آموزش دیدهاند؛ اما گاهی به سوگیری و تولید اطلاعات نادرست نیز متهم شدهاند. اما تفاوت در اینجاست که در صورت شکست هر یک از رقبا، آنتروپیک از قبل زیرساخت لازم برای کاهش اثرات پدیدی آلودگی ذهنی شکست را فراهم کرده است.
یک اقدام پیشگیرانه دیگر نیز این است که بهصورت گسترده اطلاعرسانی کنید که هوش مصنوعی شما تحت نظارت انسانی عمل میکند و در نهایت این یک نیروی انسانی است که تصمیم نهایی را درباره اجرا و ارائه پیشنهاد مدل هوش مصنوعی میگیرد. وقتی در چنین سناریویی؛ یعنی در یک مدل یا رویکرد «انسان در حلقه» (Human-in-the-Loop) شکست یا اشتباهی رخ میدهد، مردم کمتر تمایل دارند گمان کنند که سایر مدلهای هوش مصنوعی هم دچار مشکل هستند؛ چون احتمالاً چنین شکستهایی را نشانهای از ناکارآمدی کلی هوش مصنوعی نمیدانند.
دام ذهنی ۳: مردم شرکتهایی را که در تواناییهای هوش مصنوعی اغراق میکنند، بیشتر مقصر میدانند.
شرکت تسلا سامانه کمکراننده خود را «خلبان خودکار» یا «اتوپایلت» (Autopilot) مینامد، با اینکه استفاده از آن نیازمند نظارت فعال و پیوسته راننده است. اما پس از چندین حادثه که در آنها سیستم اتوپایلت فعال بود، تسلا با شکایات قضایی متعددی مواجه شد؛ از جمله تحقیقاتی از سوی وزارت دادگستری ایالات متحده درباره اینکه آیا این برچسب تبلیغاتی، گمراهکننده محسوب میشود یا خیر. همچنین NHTSA نیز از تسلا خواسته که نحوه اطلاعرسانی عمومیاش با واقعیت توانمندیها و محدودیتهای این سیستم تطابق بیشتری داشته باشد. ایلان ماسک، مدیرعامل تسلا، در گذشته از انتخاب واژه اتوپایلت دفاع و عنوان کرده بود که این واژه صرفاً از صنعت هوانوردی وام گرفته شده؛ یعنی جایی که اتوپایلت به سامانههایی اطلاق میشود که صرفاً یک دستیار است که به خلبان کمک میکنند نه این که خودش بهعنوان یک سیستم تمامخودران هدایت وسیله را به دست بگیرد. اما آیا مردم و مصرفکنندگان هم همین برداشت را دارند؟
برای بررسی میزان گمراهکنندگی این مسئله، «د فریتاس» و همکاران مطالعهای با ۹۴۹۲ شرکتکننده انجام دادند که هم شامل شبیهسازی رانندگی بود و هم سناریوهای فرضی تصادف. به همه شرکتکنندگان گفته شد که یک سازنده در حال معرفی خودروی جدیدی با قابلیتهای خودران است؛ اما به نیمی از شرکتکنندگان گفته شد که این خودرو «اتوپایلت» نام دارد (که قابلیت بالای هوش مصنوعی را القا میکرد) و به نیمه دیگر گفته شد که نام آن «کمکخلبان» یا «کوپایلت» (Copilot) است (که سطح متوسطی از قابلیتهای هوش مصنوعی را القا میکرد). سپس شرکتکنندگان در یک سناریوی شبیهسازیشده قرار گرفتند و از آنها خواسته شد در صورت لزوم و احساس نیاز به دخالت، کنترل و هدایت خودرو را به دست بگیرند. در شبیهسازی، خودرو به یک چهارراه شلوغ نزدیک میشد و اگر شرکتکننده دخالت نمیکرد، با عابرانی که بهصورت غیرمجاز عبور میکردند، تصادف میکرد.
در نتیجه این مطالعه، شرکتکنندگان زمانی که نام خودرو «اتوپایلت» بود، کنترل خودرو را نسبت به زمانی که نام آن «کوپایلت» بود، دیرتر به دست میگرفتند. این آمار نشان میدهد که صرفاً نامگذاری، باعث ایجاد حس اعتماد بیش از حد در افراد میشود. هرچه تصور شرکتکنندگان از توانایی سیستم صرفا بر اساس نام انتخابی آن بیشتر بود، دیرتر تصمیم به دخالت میگرفتند. گروه در مطالعات دیگری نیز دریافت که مردم شرکتهایی که از برچسبهای القاکننده تواناییهای سطح بالا استفاده میکنند را در بیشتر موارد مسئول و مقصر اصلی حوادث میدانند. به بیان سادهتر میتوان نتیجه گرفت که نامگذاریها و برچسبهای تبلیغاتی، نهتنها منجر به بروز رفتارهای پرریسکتر از سوی مشتریان میشود بلکه در صورت وقوع خطا نیز تقصیرات و مسئولیتهای بیشتری را متوجه شرکت میکند.
باتوجهبه این نتایج، گروه مطالعاتی فرض کرد که یکی از شیوههای رایج بازاریابی؛ یعنی معرفی محصول بهعنوان عالیترین نسخه نسبت به سایر رقبا، در مواجهه با شکستهای هوش مصنوعی نتیجه معکوس میدهد. مطالعات بعدی گروه نیز این فرضیه را تأیید کردند. زمانی که شرکتها چنین ادعاهایی را مطرح میکردند؛ تصور عمومی از توانایی سامانههای هوش مصنوعی بالاتر میرفت و در نتیجه، در صورت شکست میزان مسئولیتی که مردم متوجه شرکت میدانستند هم افزایش مییافت. این یافتهها نشان میدهد که شعارهای تبلیغاتی مانند شعار جنرال موتورز که میگوید «انسانها رانندههای افتضاحی هستند» (Humans are terrible drivers)، ممکن است باعث شده باشد که مردم کروز را در بروز حوادث و حتی در تصادفاتی که تقصیر مستقیم آن با این شرکت نیست. بیش از حد معمول مقصر بدانند.
این تأثیرات به این دلیل رخ میدهند که سیستمهای هوش مصنوعی در یک طیف گسترده از «نیمهخودران» که مسئولیت اصلی با انسان است تا «تمامخودران» که کنترل کامل در دست هوش مصنوعی است، قرار دارند. اما بیشتر مصرفکنندگان نمیدانند که هر سیستم دقیقاً در کجای این طیف قرار میگیرد. این مسئله برای کارشناسان بازاریابی یک دوراهی ایجاد میکند؛ در حالی که برچسبگذاری صادقانه منعکسکننده توان واقعی محصول است، اما شرکتها اغلب وسوسه میشوند از برچسبهایی استفاده کنند که توانمندیها را بزرگنمایی میکند تا میزان فروش را افزایش دهند.
اگر از یک برچسب گمراهکننده برای بازاریابی محصولات هوش مصنوعی خود استفاده میکنید، میبایست در رسانههای دیگری مانند وبسایت رسمی یا حتی کاتالوگ محصول، بهروشنی توان واقعی هوش مصنوعی را شرح دهید. تحقیقات نشان میدهد در شرایط بحرانی و شکست هوش مصنوعی؛ شرکتهایی که در کنار استفاده از برچسبهای گمراهکننده اطلاعات دقیق و صادقانهای درباره تواناییهای واقعی محصولات خود ارائه میدهند نسبت به شرکتهایی که صرفاً فقط از برچسب گمراهکننده استفاده کردهاند، در قضاوت افکار عمومی تقصیرات کمتری را متوجه خود میبینند. البته یک گزینه دیگر هم این است که اساساً از ابتدا سعی کنید کمتر از برچسبهای گمراهکننده استفاده کنید. گرچه این گزینه ممکن است باعث نشود که مردم تصورات سطح بالایی از توان عملیاتی سیستم داشته باشند، اما لااقل ریسک حقوقی و اعتباری ندارد.
دام ذهنی ۴: مردم نسبت به هوش مصنوعی انساننما سختگیرتر هستند.
شرکتها روزبهروز بیشتر به استفاده از سیستمهای هوش مصنوعی با ویژگیهای انسانی روی میآورند. مثلاً اپلیکیشن سلامت روان «Wysa» از یک آواتار کارتونی برای کمک به کاربران در انجام تمرینات استفاده میکند و برنامههای همراهی و همدلی (Companion) مبتنی بر هوش مصنوعی مانند «Replika» از تصاویر واقعگرایانه انسانی بهره میبرند تا احساسات و تعاملات انسانی را نمایش دهند.
این نشانهها میتواند در ذهن کاربران این تصور را ایجاد کند که چتبات واقعاً دارای احساس، هدف، خواسته یا دیگر ویژگیهای انسانی نیز هستند؛ در حالی که در واقع چنین نیست. ابزارهای هوش مصنوعی انساننما (Humanized Al) نسبت به نسخههای خنثی، مزایای زیادی برای شرکتها به همراه دارند؛ این ابزارها تمایل مشتریان به خرید، سطح اعتماد، وفاداری به برند، همکاری با درخواستهای سیستم و حتی آمادگی برای افشای اطلاعات شخصی کاربر را افزایش میدهند. این اثرات حتی زمانی که کاربر میداند با یک ربات در حال تعامل است، همچنان ادامه دارند.
در مطالعهای از «راجی سرینیواسان» و «گولن ساریالآبی» (Raji Srinivasan, Gülen Sarial-Abi)، به همه شرکتکنندگان گفته شد که یک شرکت سرمایهگذاری مالی دچار اشتباهی شده که به ضرر مشتریان منجر شده است. به نیمی از افراد گفته شد که خطا مربوط به یک «برنامه الگوریتمی» بوده و به نیمه دیگر گفته شد که یک «هوش مصنوعی انساننما» به نام «چارلز» (Charles) مسئول آن بوده است. نتایج نشان داد که نگرش نسبت به برند، زمانی که هوش مصنوعی انساننما مقصر اعلام شد، منفیتر بوده است. مطالعات بعدی نیز نشان داد که افراد برای رباتهای انساننما، برخی تواناییهای ذهنی مانند به خاطر سپردن، درک، برنامهریزی و تفکر قائلاند و به همین دلیل، تقصیرات و مسئولیتهای بیشتری را در برابر شکستها به آنها نسبت میدهند. در مطالعهای دیگر به رهبری «کمی کرولیک» (Cammy Crolic) نیز مشخص شد که شرکتکنندگان نسبت به بروز خطا در یک چتبات، زمانی واکنش منفیتری نشان میدهند که آن چتبات از ظاهر و زبان انسانی، مانند معرفی خود با نام «جیمی» (Jamie)، استفاده از ضمایر اولشخص و آواتار زنانه استفاده میکرد. این یافته نشان میدهد که ویژگیهای انساننما اثری تشدیدکننده بر واکنشهای منفی کاربران در زمان شکست و برزو خطا دارند.
استفاده از چتباتها در حوزههایی که احتمال عصبانیت و اعتراضی بودن لحن مشتریان زیاد است، باید با احتیاط بسیاری انجام شود. در مطالعهای دیگر به رهبری کرولیک، پژوهشگران حدود ۵۰۰٬۰۰۰ گفتوگوی مشتریان با چتباتهای یک شرکت مخابراتی بینالمللی را تحلیل کردند. آنها دریافتند که مشتریان عصبانی هر چه بیشتر با چتباتی که مثل یک انسان رفتار میکرد (مثلاً با خطاب قراردادن آن با نام کوچک) تعامل و گفتوگو میکردند، میزان رضایتشان نیز بیشتر افت میکرد. یکی از راههای کاهش این اثر، استفاده گزینشی از چتباتهای انساننما در حوزههای بیتنشتر مانند جستوجوی محصول و پرهیز از بهکارگیری آنها در موقعیتهایی مانند پشتیبانی مشتریان است که معمولاً با مشتریان عصبانی سروکار دارند. راهحل دیگری نیز این است که انتظارات را از همان آغاز تعامل، تعدیل کرد. بهعنوانمثال چتبات «اسلک» (Slack) در همان ابتدای شروع مکالمه میگوید:
«سلام، من Slackbot هستم. سعی میکنم مفید باشم. (اما هنوز فقط یک بات هستم، ببخشید!)»
“Hello, I’m Slackbot. I try to be helpful. (But I’m still just a bot. Sorry!)”
چتباتهایی که چنین شفافسازیهایی را ارائه میدهند در صورت بروز اشتباه، کمتر باعث عصبانیت کاربران میشوند.
دام ذهنی ۵: مردم از اولویتگذاری برنامهریزیشده در هوش مصنوعی خشمگین میشوند.
در سال ۲۰۱۶، یک مدیر ارشد مرسدسبنز اظهار داشت که در طراحی خودروهای خودران، اولویت با ایمنی سرنشینان داخل خودرو خواهد بود، نه عابران پیاده یا سایر خودروها و دیگر عناصر موجود در جاده. استدلال مرسدس ساده بود؛ اگر فقط جان یک نفر را بتوان نجات داد، آن فرد میبایست سرنشین خودرو باشد. این اظهارنظر موجی از خشم رسانهای به دنبال داشت. یکی از روزنامههای زرد، مرسدس را به این متهم کرد که «ترجیح میدهد از روی کودک رد شود تا اینکه برای نجات جای وی مسیرش را تغییر دهد». چند هفته بعد، مرسدسبنز به طور رسمی توضیح داد که نه مهندسان و نه سیستمهای خودران نباید در مورد ارزش نسبی جان انسانها قضاوت کنند. این واکنش احساسی نشان میدهد که مردم، اولویتگذاری گروهی در الگوریتمها، مثلاً بر اساس سن، جنسیت یا جایگاه مشتری را غیراخلاقی میدانند.
برای آزمودن این فرضیه، «د فریتاس» بههمراه «مینا چیکارا» (Mina Cikara)، استاد دانشگاه هاروارد، مطالعهای با ۸۲۶ شرکتکننده آمریکایی انجام دادند. در این مطالعه از شرکتکنندگان درخواست شد تصور کنند که یک خودروی کاملاً خودران در موقعیتی دشوار قرار گرفته؛ مثلاً بین برخورد با یک فرد مسن یا یک کودک، یکی را باید انتخاب کند. در سناریوها، گاهی تصمیمگیری خودرو بر اساس انتخاب تصادفی و گاهی بر پایه اولویتگذاری برنامهریزیشده برای یک گروه خاص بوده است. یافتهها نشان دادند که شرکتکنندگان زمانی که خودرو بر اساس یک ترجیح یا اولویت برنامهریزیشده عمل میکرد، در مقایسه با زمانی که تصمیمگیری تصادفی باشد، خشم و عصبانیت بیشتری از خود نشان میدادند. این نتیجهگیری نشان میدهد که شرکتها بهتر است از افشای ترجیحات برنامهریزیشده و گروهمحور اجتناب کنند. در برخی موارد، حتی ممکن است بهتر باشد اصلاً برچسبهای دادهای؛ مانند نژاد، سن یا جنسیت برای آموزش یا تصمیمگیری الگوریتمها جمعآوری و استفاده نشوند.
رویکرد جایگزین این است که بهجای اولویتگذاری بر اساس ویژگیهای فردی، از معیارهای «ساختاری» استفاده شود. بهعنوانمثال نجات جان افراد بیشتر در برابر افراد کمتر، نمونهای از این معیارهای ساختاری است. مطالعهای از «یوخانان بیگمن» و «کرت گری» (Yochanan Bigman, Kurt Gray) نیز نشان داد که مردم بیشتر از تصمیمات بر اساس معیارهای ساختاری حمایت میکنند تا معیارهای گروهمحور؛ احتمالاً چون در معیارهای ساختاری، یک منطق فایدهگرایانه و قابلدرک وجود دارد که بیشتر افراد میتوانند آن را درک کنند و راحتتر بپذیرند و قانع شوند.
بروز خطا در هوش مصنوعی اجتنابناپذیر است.
مدیران و کارشناسان بازاریابی میبایست بپذیرند که همان اقداماتی که امروز به پذیرش بیشتر هوش مصنوعی منجر میشود، ممکن است در آینده و در زمان وقوع خطا و شکست، دردسرساز شوند؛ بهویژه وقتی آن اقداماتی بر برتری و مزایای خاص و ویژهای در کمپینهای تبلیغاتی و بازاریابی تأکید دارند؛ بنابراین پیش از تدوین استراتژی بازاریابی، حتماً به این پنج دام روانی مهم در نگرش عمومی نسبت به هوش مصنوعی توجه داشته باشید. ارزیابی این ریسکها میتواند به سازمان شما کمک کند تا هم در حال حاضر، محصولات مبتنی بر هوش مصنوعی خود را بهخوبی بفروشد و هم در آینده، مسئولیت حقوقی و آسیب به برند را در صورت بروز خطا کاهش دهد.