ماشینهایی که فرایند تصمیمگیری خود را نشان میدهند، میتوانند به غلبه بر بیاعتمادی ذاتی کمک کنند
هوش مصنوعی میتواند تصمیمهایی بهتر از انسانها بگیرد؛ پس چرا به آن اعتماد نمیکنیم؟
ساکنان تگزاس آمریکا تابستان امسال شاهد کامیونهای نیمهسنگین ۵۰ هزار پوندی بودهاند که بدون حضور راننده پشت فرمان حرکت میکردند. آنها همواره باید این نکته را به خود گوشزد میکردند: احتمال این که یک کامیون خودران جان کسی را بگیرد، کمتر از کامیونی است که توسط یک انسان رانده میشود. دستکم «کریس اورمسن»، مدیرعامل شرکت سازنده نرمافزار خودروهای خودران «Aurora Innovation» بر این موضوع تأکید دارد.
منطقی مشابه آنچه درباره رانندگی گفته شد در حوزهای کاملاً متفاوت نیز صدق میکند؛ داوری حقوقی. «بریجت مری مککورمک»، رئیس پیشین دیوان عالی ایالت میشیگان و مدیرعامل کنونی American Arbitration Association، معتقد است هوش مصنوعی داور جدید این سازمان میتواند برخی اختلافها را بهتر از اغلب انسانها حلوفصل کند.
شرکتهای بیمه مدتها پیش از آن که این فرایند هوش مصنوعی نام بگیرد، از تصمیمگیری الگوریتمی استفاده میکردهاند. هرچند که در این مسیر، به دلیل سوگیری مورد شکایت قرار گرفتند و ناچار شدهاند شیوههای کاری خود را بهروزرسانی کنند.
نیاز به ناظر انسانی همواره وجود داشته است
در همان سالهای نخست، نهادهای ناظر به صراحت اعلام کردند که سامانههای مبتنی بر هوش مصنوعی برای بیمه باید تحت همان استانداردهایی ارزیابی شوند که برای تصمیمگیریهای انسانی اعمال میشود. همین موضوع بسیاری از شرکتهای بیمه را وادار کرده است الگوریتمهای خود را توضیحپذیر کنند؛ به این معنا که بهجای پنهان کردن فرایند تصمیمگیری در یک جعبه سیاهِ هوش مصنوعی، مراحل و منطق کار خود را آشکارا نشان میدهند.
برخلاف بسیاری از مبلغان اغراقآمیزی که میگویند تنها چند سال با چتباتهایی هوشمندتر از انسان فاصله داریم، افرادی که این سامانههای تصمیمگیر را میسازند تلاش فراوانی میکنند تا فرایندهای تفکر آنها را بهدقت مستندسازی کنند و دامنه کاربردشان را به حوزههایی محدود نگه دارند که میتوان در آنها توانمندی و قابل اعتماد بودن این سامانهها را نشان داد.
با اینهمه، بسیاری از ما همچنان قضاوت یک انسان را ترجیح میدهیم.
«بریجت مری مککورمک» میگوید: «شما به دادگاه میروید و یک قاضی تصمیمی میگیرد، بیآنکه هیچ راهی برای دیدن اینکه ذهن او چگونه به آن تصمیم رسیده است داشته باشید. اما میتوان یک سامانه هوش مصنوعی ساخت که قابل بررسی باشد، فرایند کار خود را نشان دهد و به طرفین توضیح دهد که تصمیمها چگونه و بر چه اساسی گرفته شدهاند.»
او میگوید ما در وضعیتی دوگانه و فلسفی قرار داریم؛ با وجود سالها پژوهش که خطاپذیری تصمیمگیری انسانی را نشان دادهاند، همچنان ابهام در قضاوتهای انسانها را میپذیریم؛ اما در عین حال، بسیاری از ما هنوز آماده نیستیم باور کنیم که یک سامانه خودکار میتواند عملکردی بهتر از انسان داشته باشد.
بازرسی الگوریتمها
بررسیهای «مرکز تحقیقاتی Pew» نشان میدهد مردم دستکم به همان اندازه که درباره هوش مصنوعی هیجانزدهاند، نگران آن نیز هستند و این نگرانی بیدلیل نیست؛ چراکه تاریخچه طولانی تصمیمگیری مبتنی بر رایانه چندان هم کارنامهای درخشان نداشته است. به طور مثال سابقه داشته الگوریتمهای تعیین مجازات در نظامهای قضایی سوگیری نژادی از خود نشان بدهند. نرمافزارهای ارزیابی معلمان نیز نتوانستهاند به تحقق پاسخگویی منجر شوند.
«کیتی اونیل» که یک بازرس الگوریتمی است در این باره میگوید: «وقتی ۱۰ سال پیش کتابم با عنوان Weapons of Math Destruction را نوشتم، نکتهای را مطرح کردم که در آن زمان کاملاً درست بود؛ بسیاری از این سامانهها بهگونهای به کار گرفته میشدند که از پاسخگویی اجتناب کنند.»
او اضافه میکند که آن تلاشهای اولیه مهم بودند، حتی اگر موفقیتآمیز نبودند زیرا وقتی یک فرایند دیجیتالی میشود حجم بیسابقهای از داده تولید میکند. زمانی که شرکتها مجبور میشوند سوابق داخلی فعالیت الگوریتمهای خود را در اختیار نهادهای ناظر یا وکلای طرف مقابل قرار دهند، نتیجه چیزی شبیه به شفافیت اجباری است.

«کیتی اونیل» نرمافزارهای تصمیمگیری را بررسی میکند تا مشخص شود آیا آنها طبق هدف طراحی شده عمل میکنند و چه افرادی ممکن است از آن آسیب ببینند. او به نمایندگی از شاکیانی که ممکن است در زمینههای مختلفی از تقلب مالی تا آسیبهای شبکههای اجتماعی اقامه دعوی کنند، انبوهی از خروجیهای تولید شده توسط نرمافزار را مورد ارزیابی قرار میدهد.
او میگوید: «یکی از هیجانانگیزترین لحظات شغلم وقتی است که دادهها را دریافت میکنم. ما میتوانیم ببینیم این افراد چه کردهاند و آنها نمیتوانند انکار کنند؛ این دادههای خودشان است.»
او تمرکز خود را بر پیامدهای یک الگوریتم میگذارد؛ یعنی توزیع تصمیمهایی که میگیرد، نه چگونگی رسیدن به آن تصمیمها. به همین دلیل روشهای او حتی با ورود مدلهای زبان بزرگ و هوش مصنوعی مولد به این حوزه، تغییر چندانی نکرده است.
«کیتی اونیل» نسبت به آینده پاسخگو کردن شرکتها در قبال الگوریتمهایشان امیدوار است، زیرا این یکی از معدود حوزههایی است که هنوز در ایالات متحده میان دو حزب مورد توافق قرار دارد. در کنفرانسی که اخیرا والاستریتژورنال برگزار کرده، «سناتور لیندزی گراهام» گفت که معتقد است شرکتهای فناوری باید در برابر هر آسیبی که سیستمهایشان ممکن است ایجاد کنند، مسئول شناخته شوند.
ابتدا بررسی کن، سپس اعتماد کن
در سال ۲۰۲۳ مهندسان شرکت Aurora، سازنده نرمافزار کامیونهای خودران، هر تصادف مرگباری را که بین سالهای ۲۰۱۸ تا ۲۰۲۲ در بزرگراه «Interstate 45» بین دالاس و هیوستون رخ داده بود بررسی کردند. بر اساس گزارشهای پلیس، تیم شبیهسازیهایی از هر یک از این تصادفها ایجاد کرد و سپس سامانه هوش مصنوعی آنها، که با نام «Aurora Driver» شناخته میشود، مسیر شبیهسازی شده را طی کرد.
«کریس اورمسون»، مدیرعامل این شرکت میگوید: «سامانه Aurora Driver میتوانست در هر یک از این حادثهها از برخورد جلوگیری کند.»
با این حال، این شرکت اخیراً با یک چالش روبهرو شد. بهار گذشته، Aurora کامیونهایی را بدون راننده در تگزاس برای حمل بار به جاده فرستاد. دو هفته بعد، به درخواست یکی از تولیدکنندگانش، این شرکت مجبور شد ناظران انسانی را بازگرداند. با این حال، شرکت تأکید کرده است که نرمافزار آن همچنان به طور کامل مسئول رانندگی است و انتظار دارد برخی از کامیونهایش دوباره تا اواسط سال ۲۰۲۶ به طور کامل بدون سرنشین شوند.
در آغاز، «American Arbitration Association» تنها داور هوش مصنوعی خود را برای نوع خاصی از پروندهها ارائه میدهد که هوش مصنوعی کنونی برای آن مناسب است؛ پروندههایی که صرفاً بر اساس اسناد تصمیمگیری میشوند. این سامانه شفافیت، قابلیت توضیحپذیری و نظارت بر انحرافات از نتایجی که کارشناسان انسانی ممکن است در یک پرونده به آن برسند، فراهم میکند.
با این حال، با وجود اینکه داوران حرفهای، قضات و دانشجویان حقوق در آزمایشها، «AI Arbitrator» را قابل اعتماد یافتهاند، هیچکس از زمان رونمایی آن در ماه گذشته، آن را در یک پرونده واقعی به کار نگرفته است. «بریجت مری مککورمک» میگوید این موضوع ممکن است به دلیل تازگی سامانه و آشنایی کم فعالان حقوقی با آن باشد. (هر دو طرف در یک اختلاف باید از همان ابتدا با استفاده از این ربات موافقت کنند.)
برای کسانی که از عموم میخواهند به هوش مصنوعیهایشان اعتماد کنند، اینکه سامانههای مبتنی بر فناوریهای مشابه به روشهایی آسیبزا عمل میکنند که روزانه همه ما درباره آنها میشنویم چندان خوشایند نیست. از چتباتهایی که رفتارهای خودآزاری را تشویق میکنند تا تولیدکنندههای تصویر که مشاغل و مالکیت فکری را تحت تأثیر قرار میدهند.
«بریجت مری مککورمک» معتقد است که اگر از مردم به طور کلی بپرسید: «چرا به هوش مصنوعی برای حل اختلافهایتان اعتماد نمیکنید؟»، آنها به طور خودکار فکر میکنند: «خب، چرا باید اختلافم را به ChatGPT بسپارم؟»
در برخی حوزهها مانند منابع انسانی، حتی متخصصان صنعت هوش مصنوعی نیز معتقدند که احساسات انسانی اهمیت دارد و تصمیمگیری هوش مصنوعی ممکن است بیش از حد خالی از احساس باشد.
اما توسعه مسئولانه میتواند به تعادل بخشیدن به جنبههای منفی هوش مصنوعی کمک کند، به شرط آنکه بتوانیم تأیید کنیم این سامانهها همان کاری را انجام میدهند که سازندگانشان ادعا میکنند.
تصور کنید آیندهای را که در یک بخش شلوغ از بزرگراه، تعداد قربانیان به طور قابل توجهی کاهش یافته باشد؛ شاید حتی صفر باشد.
«کریس اورمسون» درباره تصادفهای وحشتناک و البته قابل اجتناب که تیمش مطالعه کرده است، میگوید: «به راحتی میتوان در آمار و دادهها گم شد، اما وقتی شروع به فکر کردن درباره پیامدها برای زندگی افراد میکنید، موضوع کاملاً متفاوت است.»
این مقاله نخستین بار، ۱۲ آذر ۱۴۰۴ در روزنامه والاستریتژورنال منتشر شده است.