Filter by دسته‌ها
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 استانداردهای اخلاقی هوش مصنوعی و نقش تعیین‌کننده بریتانیا در آن‌ها

استانداردهای اخلاقی هوش مصنوعی و نقش تعیین‌کننده بریتانیا در آن‌ها

یافته‌های «جامعه کامپیوتر بریتانیا» یا به اختصار «BCS» نشان می‌دهد که انگلیس سطح استانداردهای اخلاقی هوش مصنوعی را بالا برده است. شرکت‌های نام‌آوازه‌ای از قبیل «DeepMind» ،«Graphcore» ،«Oxbotica» ،«Darktrace» و «BenevolentAI» در انگلیس قرار دارند و این کشور را به رهبر هوش مصنوعی اروپا تبدیل کرده‌اند. البته این کشور در حمایت و تامین منابع مالی این شرکت‌ها با چالش‌های بسیاری روبرو است و عملاً یارای رقابت با کشورهای چین و آمریکا را ندارد.

به باور بسیاری از کارشناسان، انگلیس باید به فکر تقویت ارزش‌های دموکراتیک خود باشد و دانشگاه‌ها، موسسه‌ها و دموکراسی را در صدر اولویت‌هایش قرار دهد تا به یکی از سردمداران بزرگ هوش مصنوعی جهان تبدیل شود. تنها در این صورت است که می‌توان به نقش مفید فناوری‌های هوش مصنوعی در خدمت‌رسانی به بشر امیدوار بود.

استانداردهای اخلاقی هوش مصنوعی

دکتر «بیل میشل» – مدیر سیاست‌گذاری در جامعه کامپیوتر بریتانیا و نگارنده‌ای اصلی گزارش حاضر – اظهار داشت: «انگلیس باید استانداردهای اخلاقی هوش مصنوعی و همچنین حرفه‌ای خود را ارتقاء بخشد چرا که این امر می‌تواند به احیای اقتصادی آن نیز کمک کند. همه باید به کارکردهای هوش مصنوعی ایمان داشته باشیم چرا که این فناوری در سال‌های آتی زندگی بشر را به شدت تحت تاثیر قرار خواهد داد.

در این راستا، می‌توان از قابلیت‌های زنان و مردانی کمک گرفت که در حرفه‌های گوناگونی سررشته دارند و می‌توانند نرم‌افزارهایی را با توجه به نیاز افراد توسعه دهند. از جمله این نرم‌افزارها می‌توان به نرم‌افزارهای تشخیص سرطان بر اساس داده‌های آموزشی، اعتبارسنجی و امکان حضور در جلسه مصاحبه اشاره کرد.»

سوگیری سیستم‌های هوش مصنوعی

در حال حاضر، بسیاری از سیستم‌های هوش مصنوعی دچار سوگیری هستند؛ این عامل می‌تواند مشکلات اجتماعی موجود را تشدید کند. این مشکلات شامل شکاف ثروت، تبعیض نژادی، جنسیتی، سنی و غیره می‌باشد. میشل در ادامه این چنین توضیح می‌دهد: «باید نیروی کار متخصص، اخلاق‌مدار و متنوعی در اختیار داشته باشیم که درک خوبی از هوش مصنوعی داشته باشد تا راه‌حل‌های مناسبی برای مشکلات جامعه ارائه کنند. تحقق این هدف به رهبری قدرتمند و همت بالای دولت بستگی دارد. افزون بر این، باید نیروهای متخصص در حوزه فناوری‌های دیجیتال به خدمت گرفته شوند.»

هوش مصنوعی در میان عموم مردم چندان مورد اعتماد قرار ندارد. تابستان سال گذشته از الگوریتمی برای تخمین نمرات دانش‌آموزان استفاده شد. بر اساس نتایج نظرسنجی موسسه «YouGov»، 53% از مردم بزرگسال انگلیس به قضاوت‌های هیچ سازمانی درباره آنها اعتماد نداشتند. در سال گذشته، رسانه‌های داخلی اعلام کردند: «کدهایی که پروفسور نایل فرگوسن و همکارانش در امپریال کالج لندن نوشتند، باعث شد تا اعتماد عموم مردم به نرم‌افزارها خدشه‌‌دار گردد. از آن زمان به بعد، مجله معتبر نیچر تایید کرده که کد کامپیوتری پروفسور فرگوسن برای اهداف تعیین‌شده مناسب است. اما بسیاری از مردم این مقاله‌های نیچر را مطالعه نکرده‌اند و کماکان بر این باورند که این کد اشتباه است.»

در این گزارش، سازمان‌هایی که از هوش مصنوعی استفاده می‌کردند، نابرابری چشمگیری به لحاظ توانش و اقدامات اخلاقی داشتند. نویسندگان گزارش به دولت پیشنهاد داده‌اند که استانداردهایی برای پذیرش هوش مصنوعی در بخش‌های دولتی و خصوصی در نظر گیرد. در راهبرد ملی داده‌های دولت انگلیس این چنین آمده است: «اگر داده ها به شکل غیرصحیح به کار برده شود، می‌تواند به مردم یا جامعه آسیب بزند. اگر مردم اعتمادشان را در این مورد از دست دهند، امکان بهره‌برداری از کلیه ظرفیت‌های آن وجود نخواهد داشت.»

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
لطفاً برای تکمیل این فرم، جاوا اسکریپت را در مرورگر خود فعال کنید.