استانداردهای اخلاقی هوش مصنوعی
اخبار

استانداردهای اخلاقی هوش مصنوعی و نقش تعیین‌کننده بریتانیا در آن‌ها

    4
    مدت زمان مطالعه: ۳ دقیقه

    یافته‌های «جامعه کامپیوتر بریتانیا» یا به اختصار «BCS» نشان می‌دهد که انگلیس سطح استانداردهای اخلاقی هوش مصنوعی را بالا برده است. شرکت‌های نام‌آوازه‌ای از قبیل «DeepMind» ، «Graphcore»، «Oxbotica»، «Darktrace» و «BenevolentAI» در انگلیس قرار دارند و این کشور را به رهبر هوش مصنوعی اروپا تبدیل کرده‌اند. البته این کشور در حمایت و تامین منابع مالی این شرکت‌ها با چالش‌های بسیاری روبرو است و عملاً یارای رقابت با کشورهای چین و آمریکا را ندارد.

    به باور بسیاری از کارشناسان، انگلیس باید به فکر تقویت ارزش‌های دموکراتیک خود باشد و دانشگاه‌ها، موسسه‌ها و دموکراسی را در صدر اولویت‌هایش قرار دهد تا به یکی از سردمداران بزرگ هوش مصنوعی جهان تبدیل شود. تنها در این صورت است که می‌توان به نقش مفید فناوری‌های هوش مصنوعی در خدمت‌رسانی به بشر امیدوار بود.

    استانداردهای اخلاقی هوش مصنوعی

    دکتر «بیل میشل» – مدیر سیاست‌گذاری در جامعه کامپیوتر بریتانیا و نگارنده‌ای اصلی گزارش حاضر – اظهار داشت: «انگلیس باید استانداردهای اخلاقی هوش مصنوعی و همچنین حرفه‌ای خود را ارتقاء بخشد چرا که این امر می‌تواند به احیای اقتصادی آن نیز کمک کند. همه باید به کارکردهای هوش مصنوعی ایمان داشته باشیم چرا که این فناوری در سال‌های آتی زندگی بشر را به شدت تحت تاثیر قرار خواهد داد.

    در این راستا، می‌توان از قابلیت‌های زنان و مردانی کمک گرفت که در حرفه‌های گوناگونی سررشته دارند و می‌توانند نرم‌افزارهایی را با توجه به نیاز افراد توسعه دهند. از جمله این نرم‌افزارها می‌توان به نرم‌افزارهای تشخیص سرطان بر اساس داده‌های آموزشی، اعتبارسنجی و امکان حضور در جلسه مصاحبه اشاره کرد.»

    سوگیری سیستم‌های هوش مصنوعی

    در حال حاضر، بسیاری از سیستم‌های هوش مصنوعی دچار سوگیری هستند؛ این عامل می‌تواند مشکلات اجتماعی موجود را تشدید کند. این مشکلات شامل شکاف ثروت، تبعیض نژادی، جنسیتی، سنی و غیره می‌باشد. میشل در ادامه این چنین توضیح می‌دهد: «باید نیروی کار متخصص، اخلاق‌مدار و متنوعی در اختیار داشته باشیم که درک خوبی از هوش مصنوعی داشته باشد تا راه‌حل‌های مناسبی برای مشکلات جامعه ارائه کنند. تحقق این هدف به رهبری قدرتمند و همت بالای دولت بستگی دارد. افزون بر این، باید نیروهای متخصص در حوزه فناوری‌های دیجیتال به خدمت گرفته شوند.»

    هوش مصنوعی در میان عموم مردم چندان مورد اعتماد قرار ندارد. تابستان سال گذشته از الگوریتمی برای تخمین نمرات دانش‌آموزان استفاده شد. بر اساس نتایج نظرسنجی موسسه «YouGov»، ۵۳% از مردم بزرگسال انگلیس به قضاوت‌های هیچ سازمانی درباره آنها اعتماد نداشتند. در سال گذشته، رسانه‌های داخلی اعلام کردند: «کدهایی که پروفسور نایل فرگوسن و همکارانش در امپریال کالج لندن نوشتند، باعث شد تا اعتماد عموم مردم به نرم‌افزارها خدشه‌‌دار گردد. از آن زمان به بعد، مجله معتبر نیچر تایید کرده که کد کامپیوتری پروفسور فرگوسن برای اهداف تعیین‌شده مناسب است. اما بسیاری از مردم این مقاله‌های نیچر را مطالعه نکرده‌اند و کماکان بر این باورند که این کد اشتباه است.»

    در این گزارش، سازمان‌هایی که از هوش مصنوعی استفاده می‌کردند، نابرابری چشمگیری به لحاظ توانش و اقدامات اخلاقی داشتند. نویسندگان گزارش به دولت پیشنهاد داده‌اند که استانداردهایی برای پذیرش هوش مصنوعی در بخش‌های دولتی و خصوصی در نظر گیرد. در راهبرد ملی داده‌های دولت انگلیس این چنین آمده است: «اگر داده ها به شکل غیرصحیح به کار برده شود، می‌تواند به مردم یا جامعه آسیب بزند. اگر مردم اعتمادشان را در این مورد از دست دهند، امکان بهره‌برداری از کلیه ظرفیت‌های آن وجود نخواهد داشت.»

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

    این مطلب چه میزان برای شما مفید بوده است؟
    [کل: ۰ میانگین: ۰]

    از تحلیل گر داده به متخصص داده

    مقاله قبلی

    ربات جنگنده روسیه ماهیت رباتیک ندارد

    مقاله بعدی

    شما همچنین ممکن است دوست داشته باشید

    بیشتر در اخبار

    4 نظرات

    1. چرا اخلاق کار علمی رو رعایت نمی کنید و منبع اصلی رو اشاره نمیکنید؟

      1. سلام دوست عزیز
        لیست منابع خبری سایت هوشیو در صفحه درباره ما در دسترس می‌باشد.

    2. به منبع اشاره کنید.

      1. سلام دوست عزیز
        لیست منابع خبری سایت هوشیو در صفحه درباره ما در دسترس می‌باشد.

    پاسخ دهید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *