هشدار متخصصان هوش مصنوعی در مورد الگوریتم های پیش بینی جرم
متخصصان هوش مصنوعی در مورد الگوریتم های پیش بینی جرم هشدار می دهند و میگویند هیچ ویژگی جسمانیای مختص جرم وجود ندارد.
به تازگی تعدادی از محققان هوش مصنوعی، دانشمندان داده، جامعه شناسان و مورخان نامهای سرگشاده در مورد تحقیقاتی که ادعا میکنند هوش مصنوعی یا تشخیص چهره میتوانند پیشبینی کنند که آیا فرد احتمالاً مرتکب جرم میشود یا نه نوشتهاند. آنها در این نامه خواستار پایان دادن به انتشار اینگونه تحقیقات شدهاند. در این نامه که بیش از 1000 نفر آن را امضا کردهاند، استدلال میشود که نباید از اطلاعات ثبت شده توسط سیستم دادرسی کیفری برای “شناسایی مجرمان” یا پیش بینی رفتار استفاده کرد. این کارشناسان میگویند، دادگاهها و اطلاعات مربوط به بازداشت شدگان، منعکس کننده سیاستها و عملکرد سیستم قضایی بوده، بنابراین آنها دارای سوگیری هستند.
در این نامه آمده است: “این دادهها نشان میدهد که پلیس چه کسی را برای دستگیری انتخاب میکند، چگونه قضات تصمیم میگیرند قانون را اعمال کنند و کدام یک از افراد به مجازات سنگین یا سبک محکوم شوند.” علاوه بر این ادامه دادن به این تحقیقات باعث میشود جرم و جنایت با تبعیض نژاد ارتباط بیشتری پیدا کند و منجر به این شود که نیروی انتظامی و سیستم قضایی در یک حلقه گمراه کننده بیافتند. درواقع کارشناسان معتقدند اگر سیستم قضایی علیه سیاهپوستان دارای سوگیریِ مغرضانه باشد، این سوگیریها به الگوریتمها منتقل خواهند شد. این نامه اضافه میکند داشتن چهرهای که به صورت خاصی به نظر میرسد باعث نمیشود فرد مرتکب جرم شود. به عبارت دیگر هیچ ویژگی جسمانی برای سوق دادن افراد به سمت عملکرد مجرمانه وجود ندارد. این نامه خاطرنشان می کند که که این داده ها هرگز نمی توانند “منصفانه” باشند.
در شرایطی که مشروعیت دولت و به ویژه پلیس در ایالات متحده آمریکا به چالش کشیده شده است، کماکان از سمت نیروهای انتظامی تقاضای زیادی برای تحقیقات در این مورد وجود دارد. تحقیقاتی که از طریق پیش بینی جرم و جنایت در جامعه ترس ایجاد میکند. با این وجود، متخصصان میگویند این مقالات از لحاظ اجتماعی آسیبزا هستند و باعث بیارزش کردن انسانها میشوند. آنها معتقدند اننتشار این مقالات میتواند به مشروعیت و در نهایت کاربرد این تحقیقات در دنیای واقعی منجر شود.
الگوی شبکه عصبی عمیق برای پیش بینی جرم و جنایت
در این نامه به طور خاص به مقالهای با عنوان “الگوی شبکه عصبی عمیق برای پیش بینی جرم و جنایت با استفاده از پردازش تصویر” اشاره شده است. نویسندگان این مقاله ادعا کردهاند که الگوریتم های پیش بینی جرم “میتواند پیشبینی کنند فردی قرار است جنایت انجام دهد یا نه؟ با دقت 80 درصد و بدون سوگیری نژادی “. موسسه اسپرینگر که قرار بود این مقاله را چاپ کند، میگوید این مقاله برای یک کنفرانس ارسال شده بود اما پس از بررسی دقیق آن رد شد. نرم افزار تشخیص چهره اغلب به دلیل عدم دقت و سوگیری آن مورد انتقاد قرار گرفته است. اخیرا فناوری تشخیص چهره آمازون به طور نادرست بیش از 100 عکس از سیاستمداران انگلیسی و آمریکایی را با تصاویر زندانیان تطبیق داده است. در حالی که اعتراضات به عنوان بخشی از جنبش Black Lives Matter ادامه دارد، شرکت IBM نیز تحقیق در مورد محصولات تشخیص چهره را به پایان رسانده است.
فقط فناوری تشخیص چهره نیست که زیر منگنه قرار دارد. مایکروسافت و گوگل از شرکتهای وابسته به خود خواستهاند قراردادهای خود را با پلیس پایان دهند. این درخواست بخشی از بررسیهای این شرکتها در مورد روابط خودشان با نیروهای انتظامی است. پیش از این از 1600 کارمند گوگل در نامهای نوشتهاند که ما عمیقا متاسفیم که میدانیم گوگل هنوز به نیروهای پلیس محصولات خود را میفروشد و ارتباط خود را با نیروهای پلیس به عنوان یک پیشرفت تبلیغ میکند و به دنبال قطع رابطه با پلیس و پیوستن به میلیون ها معترض نیست.