الگوریتم های پیش بینی جرم
اخبار

هشدار متخصصان هوش مصنوعی در مورد الگوریتم های پیش بینی جرم

    0
    زمان مطالعه: ۳ دقیقه

    متخصصان هوش مصنوعی در مورد الگوریتم های پیش بینی جرم هشدار می دهند و می‌گویند هیچ ویژگی جسمانی‌ای مختص جرم وجود ندارد.

    به تازگی تعدادی از محققان هوش مصنوعی، دانشمندان داده، جامعه شناسان و مورخان نامه‌ای سرگشاده در مورد تحقیقاتی که ادعا می‌کنند هوش مصنوعی یا تشخیص چهره می‌توانند پیش‌بینی کنند که آیا فرد احتمالاً مرتکب جرم می‌شود یا نه نوشته‌اند. آنها در این نامه خواستار پایان دادن به انتشار این‌گونه تحقیقات شده‌اند. در این نامه  که بیش از ۱۰۰۰ نفر آن را امضا کرده‌اند، استدلال می‌شود که نباید از اطلاعات ثبت شده توسط سیستم دادرسی کیفری برای “شناسایی مجرمان” یا پیش بینی رفتار استفاده کرد. این کارشناسان می‌گویند، دادگاه‌ها و اطلاعات مربوط به بازداشت شدگان، منعکس کننده سیاست‌ها و عملکرد سیستم قضایی بوده، بنابراین آنها دارای سوگیری هستند.

    در این نامه آمده است: “این داده‌ها نشان می‌دهد که پلیس چه کسی را برای دستگیری انتخاب می‌کند، چگونه قضات تصمیم می‌گیرند قانون را اعمال کنند و  کدام یک از افراد به مجازات سنگین یا سبک محکوم شوند.” علاوه بر این ادامه دادن به این تحقیقات باعث می‌شود جرم و جنایت با تبعیض نژاد ارتباط بیشتری پیدا کند و منجر به این شود که نیروی انتظامی و سیستم قضایی در یک حلقه گمراه کننده بیافتند. درواقع کارشناسان معتقدند اگر سیستم قضایی علیه سیاه‌پوستان دارای سوگیریِ مغرضانه باشد، این سوگیری‌ها به الگوریتم‌ها منتقل خواهند شد.  این نامه اضافه می‌کند داشتن چهره‌ای که به صورت خاصی به نظر می‌رسد باعث نمی‌شود فرد مرتکب جرم شود. به عبارت دیگر هیچ ویژگی جسمانی برای سوق دادن افراد به سمت عملکرد مجرمانه وجود ندارد.  این نامه خاطرنشان می کند که که این داده ها هرگز نمی توانند “منصفانه” باشند.

    در شرایطی که مشروعیت دولت و به ویژه پلیس در ایالات متحده آمریکا به چالش کشیده شده است، کماکان از سمت نیروهای انتظامی تقاضای زیادی برای تحقیقات در این مورد وجود دارد. تحقیقاتی که از طریق پیش بینی جرم و جنایت در جامعه ترس ایجاد می‌کند. با این وجود، متخصصان می‌گویند این مقالات از لحاظ اجتماعی آسیب‌زا هستند و باعث بی‌ارزش کردن انسان‌ها می‌شوند. آنها معتقدند اننتشار این مقالات می‌تواند به مشروعیت و در نهایت کاربرد این تحقیقات در دنیای واقعی منجر شود.

    الگوی شبکه عصبی عمیق برای پیش بینی جرم و جنایت

    در این نامه به طور خاص به مقاله‌ای با عنوان “الگوی شبکه عصبی عمیق برای پیش بینی جرم و جنایت با استفاده از پردازش تصویر” اشاره شده است. نویسندگان این مقاله ادعا کرده‌اند که الگوریتم های پیش بینی جرم “می‌تواند  پیش‌بینی کنند فردی قرار است جنایت انجام دهد یا نه؟ با دقت ۸۰ درصد و بدون سوگیری نژادی “. موسسه اسپرینگر که قرار بود این مقاله را چاپ کند، می‌گوید این مقاله برای یک کنفرانس ارسال شده بود اما پس از بررسی دقیق آن رد شد. نرم افزار تشخیص چهره اغلب به دلیل عدم دقت و سوگیری آن مورد انتقاد قرار گرفته است. اخیرا فناوری تشخیص چهره آمازون به طور نادرست بیش از ۱۰۰ عکس از سیاستمداران انگلیسی و آمریکایی را با تصاویر زندانیان تطبیق داده است.  در حالی که اعتراضات به عنوان بخشی از جنبش Black Lives Matter ادامه دارد، شرکت IBM  نیز تحقیق در مورد محصولات تشخیص چهره را به پایان رسانده است.

    فقط فناوری تشخیص چهره نیست که زیر منگنه قرار دارد. مایکروسافت و گوگل از شرکت‌های وابسته به خود خواسته‌اند قراردادهای خود را با پلیس پایان دهند. این درخواست بخشی از بررسی‌های این شرکت‌ها در مورد روابط خودشان با نیروهای انتظامی است. پیش از این از ۱۶۰۰ کارمند گوگل در نامه‌ای نوشته‌اند که ما عمیقا متاسفیم که می‌دانیم گوگل هنوز به نیروهای پلیس محصولات خود را می‌فروشد و ارتباط خود را با نیروهای پلیس به عنوان یک پیشرفت تبلیغ می‌کند و به دنبال قطع رابطه با پلیس و پیوستن به میلیون ها معترض نیست.

    این مطلب چه میزان برای شما مفید بوده است؟
    [کل: ۰ میانگین: ۰]

    ایران بزرگترین شرکتهای هوش مصنوعی را در منطقه دارد

    مقاله قبلی

    Ablacon، انقلابی نوین در درمان فیبریلاسیون دهلیزی

    مقاله بعدی

    شما همچنین ممکن است دوست داشته باشید

    بیشتر در اخبار

    نظرات

    پاسخ دهید

    نشانی ایمیل شما منتشر نخواهد شد.