جستجو
Generic filters
Filter by دسته‌ها
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 چالش‌های اخلاقی پیش‌روی خودروهای خودران مبتنی بر هوش مصنوعی

چالش‌های اخلاقی پیش‌روی خودروهای خودران مبتنی بر هوش مصنوعی

خودروی پرنده‌ای با نام «Pop.up next»، یک خودروی هیبرید است که آئودی، italdesign و ایرباس با ادغام خودروهای خودران مبتنی بر هوش مصنوعی و پهپادهای مسافرتی تولید کرده‌اند. این خودرو در هشتاد و هشتمین نمایشگاه بین‌المللی موتور ژنو، در تاریخ ۶ مارس ۲۰۱۸، نمایش داده شد. از میان خودروسازان مطرحی که در این نمایشگاه گرد هم جمع می‌شوند، بسیاری به دنبال محصولات جایگزین برای موتورهای احتراقی معمولی هستند که به‌ویژه، در قالب خودروهای برقی ظاهر می‌گردند. نمایشگاه خودروی ژنو را می‌توان برجسته‌ترین رویداد برای خودروهای اسپورت لوکس و نمونه‌های آزمایشی بدعت‌آفرین دانست.

پتانسیل هوش مصنوعی در خودروهای هوشمند

با توجه به پتانسیل هوش مصنوعی، طی سه سال آینده، حدود نیمی از کسب‌وکارها به طریقی برنامه‌ خود را حول محور هوش مصنوعی و یا یادگیری ماشینی تدوین خواهند کرد. گرنت شپس، وزیر حمل‌ونقل، گفته است که خودروهای خودران مبتنی بر هوش مصنوعی حتی طی یک سال آینده هم وارد جاده‌ها خواهند شد. چنین پیش‌بینی‌هایی باعث می‌شوند به نقش و ماهیت هوش مصنوعی بیشتر فکر کنیم. خودروهای خودران مبتنی بر هوش مصنوعی برای پیش‌بینی از چه موقعیت‌هایی استفاده می‌کنند؟ در‌صورتی‌که اتفاقات غیرمنتظره رخ دهد، این خودروها چه رفتاری از خود نشان می‌دهند و این رفتارها چه تأثیری بر جاده می‌گذارند؟

پرسش‌های قانونی، اجتماعی و اخلاقی فراوانی وجود دارند که می‌بایست مورد بررسی قرار گیرد. در انتها، شاید همه چیز به همان مسئله‌ یا دوراهی معروف Trolley برگردد؛ چطور می‌توان انتخاب کرد چه کسی را نجات داد و چطور می‌توان رباتی که از کنترل خارج شده است را متوقف کرد؟

پتانسیل هوش مصنوعی در خودروهای هوشمند

هرچه هوش مصنوعی رایج‌تر می‌شود، قانون‌گذاران نیز بیش از پیش با این مسائل اخلاقی دست‌وپنجه نرم می‌کنند. یکی از برجسته‌ترین اولویت‌های قوانین اتحادیه اروپا در رابطه با هوش مصنوعی، نیاز به شفافیت، عدالت و عدم سوگیری است.

گزارش‌ها را باید بر اساس شرایط خاصی تدوین کرد، تا به افرادی کمک کند که تحت‌تأثیر خروجی‌های سوگیرانه، غیراخلاقی و نادرست هوش مصنوعی قرار گرفته‌اند و یا از داده‌هایشان سوءاستفاده شده است.

وقتی صحبت از شرایط و الزامات قانونی در مورد حریم خصوصی می‌شود، به‌‍ویژه زمانی که قوانین جدید به وجود می‌آیند و با‌توجه به تفاوت قوانین در سطح دنیا، کاربران هوش مصنوعی می‌توانند با سختی‌ها و چالش‌های زیادی روبه‌رو شوند.

آیا قوانین می‌توانند موجب محدودیت‌ هوش مصنوعی شوند؟

در ماه گذشته، دولت بریتانیا پیشنهاداتی در مورد قوانین آینده‌ هوش مصنوعی و خودروهای خودران مبتنی بر هوش مصنوعی ارائه کرد و سپس از مردم دعوت کرد، تا نظرات‌شان را در مورد این رویکرد بیان کنند. این رویکرد نسبت به قوانین اتحادیه اروپا دوستانه‌تر و انعطاف‌پذیرتر هستند و قصد دارند قوانین سازگار و متناسب تدوین کنند. سازمان‌های Ofcom و CMA امکانات موردنیاز برای تفسیر و پیاده‌سازی اصول کلیدی این قوانین را در اختیار خواهند داشت.

تنها دلیل در پیش‌گرفتن رویکرد اخلاقی در به‌کارگیری هوش مصنوعی، پیروی از قوانین نیست. تنها در اتحادیه اروپا، مقدار جریمه‌های بالقوه می‌تواند به ۳۰,۰۰۰,۰۰۰ یورو در سال برسد که ۶ درصد از گردش مالی جهانی است؛ به‌علاوه آسیب‌های ناشی از این شکایات و جریمه‌ها به‌قدری چشمگیر هستند که پیروی از قوانین و محدودیت‌ هوش مصنوعی را ضروری می‌سازند.

اما پرسش این‌جاست که کسب‌کارها چطور می‌توانند مطمئن شوند که هوش مصنوعی‌شان متعصب نیست؟ شاید بزرگ‌ترین گامی که بتوان در این راستا برداشت، استفاده از داده‌های درست و البته، پردازش صحیح آن‌ها باشد. قضاوت در مورد این‌که از چه داده‌هایی می‌توان استفاده کرد، مبحثی است که مستلزم حل دغدغه‌های اخلاقی زیادی است.

به‌عنوان‌مثال، اگر سیستم برای انتخاب از بین دو متقاضی شغل، بر داده‌های قدیمی تکیه کند، به‌سادگی می‌تواند تصمیمی سوگیرانه گرفته و امتیاز بیشتری به مردان سفیدپوست بدهد، چون در گذشته، این گروه بیشترین فرصت‌ها را در دست داشته‌اند.

آیا قوانین می‌توانند موجب محدودیت‌ هوش مصنوعی شوند؟

لزوم تدوین قوانین دقیق برای هوش مصنوعی

تاکنون مواردی بوده‌اند که سوگیری به نتایج ناعادلانه انجامیده است؛ به‌عنوان‌مثال، می‌توان به ثبت‌نام برای وام مسکن در بانک‌های غیربریتانیایی اشاره کرد. به‌علاوه، تصمیمات سیستم‌های هوش مصنوعی به‌کاررفته در خودروهای خودران مبتنی بر هوش مصنوعی و تسلیحات خودکار نیز از جمله نمونه‌هایی هستند که لزوم تدوین قوانین دقیق برای هوش مصنوعی را نشان می‌دهند.

در حال حاضر، حداقل در حوزه‌هایی که سیستم‌ها هنوز کاملاً خودکار نشده‌اند، کسب‌وکارها با چنین مسائلی دست‌وپنجه نرم می‌کنند؛ چون درصورتی‌که از قوانین پیروی نکنند، آبرو و نام خوبشان را از دست می‌دهند و با جریمه‌های سنگین روبه‌رو می‌شوند.

هیئت‌های مدیره سازمان‌ها موظف‌اند، تا تعداد بی‌شمار قوانینی که بر کسب‌وکارشان اعمال می‌شود را درک کنند و برنامه‌ای شفاف تدوین نمایند که رویکردشان نسبت به رعایت اخلاقیات در حوزه‌ فناوری یا همان «مسئولیت‌پذیری اجتماعی شرکت» را به‌وضوح نشان می‌دهد. تنها در این صورت است که پتانسیل حقیقی هوش مصنوعی محقق شده و این فناوری، بدون ریسک سوگیری و تعصب، در راستای دستیابی به مقاصد خوب و سالم، به کار برده می‌شود.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

مقاله ما چطور بود؟

میانگین امتیاز / ۵. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
Please enable JavaScript in your browser to complete this form.