چالشهای اخلاقی پیشروی خودروهای خودران مبتنی بر هوش مصنوعی
خودروی پرندهای با نام «Pop.up next»، یک خودروی هیبرید است که آئودی، italdesign و ایرباس با ادغام خودروهای خودران مبتنی بر هوش مصنوعی و پهپادهای مسافرتی تولید کردهاند. این خودرو در هشتاد و هشتمین نمایشگاه بینالمللی موتور ژنو، در تاریخ 6 مارس 2018، نمایش داده شد. از میان خودروسازان مطرحی که در این نمایشگاه گرد هم جمع میشوند، بسیاری به دنبال محصولات جایگزین برای موتورهای احتراقی معمولی هستند که بهویژه، در قالب خودروهای برقی ظاهر میگردند. نمایشگاه خودروی ژنو را میتوان برجستهترین رویداد برای خودروهای اسپورت لوکس و نمونههای آزمایشی بدعتآفرین دانست.
پتانسیل هوش مصنوعی در خودروهای هوشمند
با توجه به پتانسیل هوش مصنوعی، طی سه سال آینده، حدود نیمی از کسبوکارها به طریقی برنامه خود را حول محور هوش مصنوعی و یا یادگیری ماشینی تدوین خواهند کرد. گرنت شپس، وزیر حملونقل، گفته است که خودروهای خودران مبتنی بر هوش مصنوعی حتی طی یک سال آینده هم وارد جادهها خواهند شد. چنین پیشبینیهایی باعث میشوند به نقش و ماهیت هوش مصنوعی بیشتر فکر کنیم. خودروهای خودران مبتنی بر هوش مصنوعی برای پیشبینی از چه موقعیتهایی استفاده میکنند؟ درصورتیکه اتفاقات غیرمنتظره رخ دهد، این خودروها چه رفتاری از خود نشان میدهند و این رفتارها چه تأثیری بر جاده میگذارند؟
پرسشهای قانونی، اجتماعی و اخلاقی فراوانی وجود دارند که میبایست مورد بررسی قرار گیرد. در انتها، شاید همه چیز به همان مسئله یا دوراهی معروف Trolley برگردد؛ چطور میتوان انتخاب کرد چه کسی را نجات داد و چطور میتوان رباتی که از کنترل خارج شده است را متوقف کرد؟
هرچه هوش مصنوعی رایجتر میشود، قانونگذاران نیز بیش از پیش با این مسائل اخلاقی دستوپنجه نرم میکنند. یکی از برجستهترین اولویتهای قوانین اتحادیه اروپا در رابطه با هوش مصنوعی، نیاز به شفافیت، عدالت و عدم سوگیری است.
گزارشها را باید بر اساس شرایط خاصی تدوین کرد، تا به افرادی کمک کند که تحتتأثیر خروجیهای سوگیرانه، غیراخلاقی و نادرست هوش مصنوعی قرار گرفتهاند و یا از دادههایشان سوءاستفاده شده است.
وقتی صحبت از شرایط و الزامات قانونی در مورد حریم خصوصی میشود، بهویژه زمانی که قوانین جدید به وجود میآیند و باتوجه به تفاوت قوانین در سطح دنیا، کاربران هوش مصنوعی میتوانند با سختیها و چالشهای زیادی روبهرو شوند.
آیا قوانین میتوانند موجب محدودیت هوش مصنوعی شوند؟
در ماه گذشته، دولت بریتانیا پیشنهاداتی در مورد قوانین آینده هوش مصنوعی و خودروهای خودران مبتنی بر هوش مصنوعی ارائه کرد و سپس از مردم دعوت کرد، تا نظراتشان را در مورد این رویکرد بیان کنند. این رویکرد نسبت به قوانین اتحادیه اروپا دوستانهتر و انعطافپذیرتر هستند و قصد دارند قوانین سازگار و متناسب تدوین کنند. سازمانهای Ofcom و CMA امکانات موردنیاز برای تفسیر و پیادهسازی اصول کلیدی این قوانین را در اختیار خواهند داشت.
تنها دلیل در پیشگرفتن رویکرد اخلاقی در بهکارگیری هوش مصنوعی، پیروی از قوانین نیست. تنها در اتحادیه اروپا، مقدار جریمههای بالقوه میتواند به 30,000,000 یورو در سال برسد که 6 درصد از گردش مالی جهانی است؛ بهعلاوه آسیبهای ناشی از این شکایات و جریمهها بهقدری چشمگیر هستند که پیروی از قوانین و محدودیت هوش مصنوعی را ضروری میسازند.
اما پرسش اینجاست که کسبکارها چطور میتوانند مطمئن شوند که هوش مصنوعیشان متعصب نیست؟ شاید بزرگترین گامی که بتوان در این راستا برداشت، استفاده از دادههای درست و البته، پردازش صحیح آنها باشد. قضاوت در مورد اینکه از چه دادههایی میتوان استفاده کرد، مبحثی است که مستلزم حل دغدغههای اخلاقی زیادی است.
بهعنوانمثال، اگر سیستم برای انتخاب از بین دو متقاضی شغل، بر دادههای قدیمی تکیه کند، بهسادگی میتواند تصمیمی سوگیرانه گرفته و امتیاز بیشتری به مردان سفیدپوست بدهد، چون در گذشته، این گروه بیشترین فرصتها را در دست داشتهاند.
لزوم تدوین قوانین دقیق برای هوش مصنوعی
تاکنون مواردی بودهاند که سوگیری به نتایج ناعادلانه انجامیده است؛ بهعنوانمثال، میتوان به ثبتنام برای وام مسکن در بانکهای غیربریتانیایی اشاره کرد. بهعلاوه، تصمیمات سیستمهای هوش مصنوعی بهکاررفته در خودروهای خودران مبتنی بر هوش مصنوعی و تسلیحات خودکار نیز از جمله نمونههایی هستند که لزوم تدوین قوانین دقیق برای هوش مصنوعی را نشان میدهند.
در حال حاضر، حداقل در حوزههایی که سیستمها هنوز کاملاً خودکار نشدهاند، کسبوکارها با چنین مسائلی دستوپنجه نرم میکنند؛ چون درصورتیکه از قوانین پیروی نکنند، آبرو و نام خوبشان را از دست میدهند و با جریمههای سنگین روبهرو میشوند.
هیئتهای مدیره سازمانها موظفاند، تا تعداد بیشمار قوانینی که بر کسبوکارشان اعمال میشود را درک کنند و برنامهای شفاف تدوین نمایند که رویکردشان نسبت به رعایت اخلاقیات در حوزه فناوری یا همان «مسئولیتپذیری اجتماعی شرکت» را بهوضوح نشان میدهد. تنها در این صورت است که پتانسیل حقیقی هوش مصنوعی محقق شده و این فناوری، بدون ریسک سوگیری و تعصب، در راستای دستیابی به مقاصد خوب و سالم، به کار برده میشود.
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید