Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 هوش مصنوعی می‌تواند تصمیم‌هایی بهتر از انسان‌ها بگیرد؛ پس چرا به آن اعتماد نمی‌کنیم؟

ماشین‌هایی که فرایند تصمیم‌گیری خود را نشان می‌دهند، می‌توانند به غلبه بر بی‌اعتمادی ذاتی کمک کنند

هوش مصنوعی می‌تواند تصمیم‌هایی بهتر از انسان‌ها بگیرد؛ پس چرا به آن اعتماد نمی‌کنیم؟

زمان مطالعه: 5 دقیقه

ساکنان تگزاس آمریکا تابستان امسال شاهد کامیون‌های نیمه‌سنگین ۵۰ هزار پوندی بوده‌اند که بدون حضور راننده پشت فرمان حرکت می‌کردند. آنها همواره باید این نکته را به خود گوشزد می‌کردند: احتمال این ‌که یک کامیون خودران جان کسی را بگیرد، کمتر از کامیونی است که توسط یک انسان رانده می‌شود. دست‌کم «کریس اورمسن»، مدیرعامل شرکت سازنده نرم‌افزار خودروهای خودران «Aurora Innovation» بر این موضوع تأکید دارد.

منطقی مشابه آنچه درباره رانندگی گفته شد در حوزه‌ای کاملاً متفاوت نیز صدق می‌کند؛ داوری حقوقی. «بریجت مری مک‌کورمک»، رئیس پیشین دیوان عالی ایالت میشیگان و مدیرعامل کنونی American Arbitration Association، معتقد است هوش مصنوعی داور جدید این سازمان می‌تواند برخی اختلاف‌ها را بهتر از اغلب انسان‌ها حل‌وفصل کند.

شرکت‌های بیمه مدت‌ها پیش از آن‌ که این فرایند هوش مصنوعی نام بگیرد، از تصمیم‌گیری الگوریتمی استفاده می‌کرده‌اند. هرچند که در این مسیر، به دلیل سوگیری مورد شکایت قرار گرفتند و ناچار شده‌اند شیوه‌های کاری خود را به‌روزرسانی کنند.

نیاز به ناظر انسانی همواره وجود داشته است

در همان سال‌های نخست، نهادهای ناظر به‌ صراحت اعلام کردند که سامانه‌های مبتنی بر هوش مصنوعی برای بیمه باید تحت همان استانداردهایی ارزیابی شوند که برای تصمیم‌گیری‌های انسانی اعمال می‌شود. همین موضوع بسیاری از شرکت‌های بیمه را وادار کرده است الگوریتم‌های خود را توضیح‌پذیر کنند؛ به این معنا که به‌جای پنهان کردن فرایند تصمیم‌گیری در یک جعبه ‌سیاهِ هوش مصنوعی، مراحل و منطق کار خود را آشکارا نشان می‌دهند.

برخلاف بسیاری از مبلغان اغراق‌آمیزی که می‌گویند تنها چند سال با چت‌بات‌هایی هوشمندتر از انسان فاصله داریم، افرادی که این سامانه‌های تصمیم‌گیر را می‌سازند تلاش فراوانی می‌کنند تا فرایندهای تفکر آن‌ها را به‌دقت مستندسازی کنند و دامنه کاربردشان را به حوزه‌هایی محدود نگه دارند که می‌توان در آن‌ها توانمندی و قابل ‌اعتماد بودن این سامانه‌ها را نشان داد.

با این‌همه، بسیاری از ما همچنان قضاوت یک انسان را ترجیح می‌دهیم.

 «بریجت مری مک‌کورمک» می‌گوید: «شما به دادگاه می‌روید و یک قاضی تصمیمی می‌گیرد، بی‌آنکه هیچ راهی برای دیدن این‌که ذهن او چگونه به آن تصمیم رسیده است داشته باشید. اما می‌توان یک سامانه هوش مصنوعی ساخت که قابل بررسی باشد، فرایند کار خود را نشان دهد و به طرفین توضیح دهد که تصمیم‌ها چگونه و بر چه اساسی گرفته شده‌اند.»

او می‌گوید ما در وضعیتی دوگانه و فلسفی قرار داریم؛ با وجود سال‌ها پژوهش که خطاپذیری تصمیم‌گیری انسانی را نشان داده‌اند، همچنان ابهام در قضاوت‌های انسان‌ها را می‌پذیریم؛ اما در عین حال، بسیاری از ما هنوز آماده نیستیم باور کنیم که یک سامانه خودکار می‌تواند عملکردی بهتر از انسان داشته باشد.

بازرسی الگوریتم‌ها

بررسی‌های «مرکز تحقیقاتی Pew» نشان‌ می‌دهد مردم دست‌کم به همان اندازه که درباره هوش مصنوعی هیجان‌زده‌اند، نگران آن نیز هستند و این نگرانی بی‌دلیل نیست؛ چراکه تاریخچه طولانی تصمیم‌گیری مبتنی بر رایانه چندان هم کارنامه‌ای درخشان نداشته است. به طور مثال سابقه داشته الگوریتم‌های تعیین مجازات در نظام‌های قضایی سوگیری نژادی از خود نشان بدهند. نرم‌افزارهای ارزیابی معلمان نیز نتوانسته‌اند به تحقق پاسخ‌گویی منجر شوند.

«کیتی اونیل» که یک بازرس الگوریتمی است در این باره می‌گوید: «وقتی ۱۰ سال پیش کتابم با عنوان Weapons of Math Destruction را نوشتم، نکته‌ای را مطرح کردم که در آن زمان کاملاً درست بود؛ بسیاری از این سامانه‌ها به‌گونه‌ای به کار گرفته می‌شدند که از پاسخ‌گویی اجتناب کنند.»

او اضافه می‌کند که آن تلاش‌های اولیه مهم بودند، حتی اگر موفقیت‌آمیز نبودند زیرا وقتی یک فرایند دیجیتالی می‌شود حجم بی‌سابقه‌ای از داده تولید می‌کند. زمانی که شرکت‌ها مجبور می‌شوند سوابق داخلی فعالیت الگوریتم‌های خود را در اختیار نهادهای ناظر یا وکلای طرف مقابل قرار دهند، نتیجه چیزی شبیه به شفافیت اجباری است.

یک کامیون Aurora Innovation در تست جاده‌ای

«کیتی اونیل» نرم‌افزارهای تصمیم‌گیری را بررسی می‌کند تا مشخص شود آیا آن‌ها طبق هدف طراحی ‌شده عمل می‌کنند و چه افرادی ممکن است از آن آسیب ببینند. او به نمایندگی از شاکیانی که ممکن است در زمینه‌های مختلفی از تقلب مالی تا آسیب‌های شبکه‌های اجتماعی اقامه دعوی کنند، انبوهی از خروجی‌های تولید شده توسط نرم‌افزار را مورد ارزیابی قرار می‌دهد.

او می‌گوید: «یکی از هیجان‌انگیزترین لحظات شغلم وقتی است که داده‌ها را دریافت می‌کنم. ما می‌توانیم ببینیم این افراد چه کرده‌اند و آن‌ها نمی‌توانند انکار کنند؛ این داده‌های خودشان است.»

او تمرکز خود را بر پیامدهای یک الگوریتم می‌گذارد؛ یعنی توزیع تصمیم‌هایی که می‌گیرد، نه چگونگی رسیدن به آن تصمیم‌ها. به همین دلیل روش‌های او حتی با ورود مدل‌های زبان بزرگ و هوش مصنوعی مولد به این حوزه، تغییر چندانی نکرده است.

«کیتی اونیل» نسبت به آینده پاسخ‌گو کردن شرکت‌ها در قبال الگوریتم‌هایشان امیدوار است، زیرا این یکی از معدود حوزه‌هایی است که هنوز در ایالات متحده میان دو حزب مورد توافق قرار دارد. در کنفرانسی که اخیرا وال‌استریت‌ژورنال برگزار کرده، «سناتور لیندزی گراهام» گفت که معتقد است شرکت‌های فناوری باید در برابر هر آسیبی که سیستم‌هایشان ممکن است ایجاد کنند، مسئول شناخته شوند.

ابتدا بررسی کن، سپس اعتماد کن

در سال ۲۰۲۳ مهندسان شرکت Aurora، سازنده نرم‌افزار کامیون‌های خودران، هر تصادف مرگباری را که بین سال‌های ۲۰۱۸ تا ۲۰۲۲ در بزرگراه «Interstate 45» بین دالاس و هیوستون رخ داده بود بررسی کردند. بر اساس گزارش‌های پلیس، تیم شبیه‌سازی‌هایی از هر یک از این تصادف‌ها ایجاد کرد و سپس سامانه هوش مصنوعی آن‌ها، که با نام «Aurora Driver» شناخته می‌شود، مسیر شبیه‌سازی شده را طی کرد.

«کریس اورمسون»، مدیرعامل این شرکت می‌گوید: «سامانه Aurora Driver می‌توانست در هر یک از این حادثه‌ها از برخورد جلوگیری کند.»

با این حال، این شرکت اخیراً با یک چالش روبه‌رو شد. بهار گذشته، Aurora کامیون‌هایی را بدون راننده در تگزاس برای حمل بار به جاده فرستاد. دو هفته بعد، به درخواست یکی از تولیدکنندگانش، این شرکت مجبور شد ناظران انسانی را بازگرداند. با این حال، شرکت تأکید کرده است که نرم‌افزار آن همچنان به ‌طور کامل مسئول رانندگی است و انتظار دارد برخی از کامیون‌هایش دوباره تا اواسط سال ۲۰۲۶ به ‌طور کامل بدون سرنشین شوند.

در آغاز، «American Arbitration Association» تنها داور هوش مصنوعی خود را برای نوع خاصی از پرونده‌ها ارائه می‌دهد که هوش مصنوعی کنونی برای آن مناسب است؛ پرونده‌هایی که صرفاً بر اساس اسناد تصمیم‌گیری می‌شوند. این سامانه شفافیت، قابلیت توضیح‌پذیری و نظارت بر انحرافات از نتایجی که کارشناسان انسانی ممکن است در یک پرونده به آن برسند، فراهم می‌کند.

با این حال، با وجود این‌که داوران حرفه‌ای، قضات و دانشجویان حقوق در آزمایش‌ها، «AI Arbitrator» را قابل اعتماد یافته‌اند، هیچ‌کس از زمان رونمایی آن در ماه گذشته، آن را در یک پرونده واقعی به کار نگرفته است. «بریجت مری مک‌کورمک» می‌گوید این موضوع ممکن است به دلیل تازگی سامانه و آشنایی کم فعالان حقوقی با آن باشد. (هر دو طرف در یک اختلاف باید از همان ابتدا با استفاده از این ربات موافقت کنند.)

برای کسانی که از عموم می‌خواهند به هوش مصنوعی‌هایشان اعتماد کنند، اینکه سامانه‌های مبتنی بر فناوری‌های مشابه به روش‌هایی آسیب‌زا عمل می‌کنند که روزانه همه ما درباره آن‌ها می‌شنویم چندان خوشایند نیست. از چت‌بات‌هایی که رفتارهای خودآزاری را تشویق می‌کنند تا تولیدکننده‌های تصویر که مشاغل و مالکیت فکری را تحت تأثیر قرار می‌دهند.

«بریجت مری مک‌کورمک» معتقد است که اگر از مردم به ‌طور کلی بپرسید: «چرا به هوش مصنوعی برای حل اختلاف‌هایتان اعتماد نمی‌کنید؟»، آن‌ها به ‌طور خودکار فکر می‌کنند: «خب، چرا باید اختلافم را به ChatGPT بسپارم؟»  

در برخی حوزه‌ها مانند منابع انسانی، حتی متخصصان صنعت هوش مصنوعی نیز معتقدند که احساسات انسانی اهمیت دارد و تصمیم‌گیری هوش مصنوعی ممکن است بیش از حد خالی از احساس باشد.

اما توسعه مسئولانه می‌تواند به تعادل بخشیدن به جنبه‌های منفی هوش مصنوعی کمک کند، به شرط آن‌که بتوانیم تأیید کنیم این سامانه‌ها همان کاری را انجام می‌دهند که سازندگانشان ادعا می‌کنند.

تصور کنید آینده‌ای را که در یک بخش شلوغ از بزرگراه، تعداد قربانیان به‌ طور قابل توجهی کاهش یافته باشد؛ شاید حتی صفر باشد.

«کریس اورمسون» درباره تصادف‌های وحشتناک و البته قابل اجتناب که تیمش مطالعه کرده است، می‌گوید: «به راحتی می‌توان در آمار و داده‌ها گم شد، اما وقتی شروع به فکر کردن درباره پیامدها برای زندگی افراد می‌کنید، موضوع کاملاً متفاوت است.»

این مقاله نخستین بار، ۱۲ آذر ۱۴۰۴ در روزنامه وال‌استریت‌ژورنال منتشر شده است.

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]