اخلاق در هوش مصنوعی
اخباراصول هوش مصنوعی

نگاهی به ۳ پیشنهاد بودا برای رعایت اخلاق در هوش مصنوعی

    0
    مدت زمان مطالعه: ۳ دقیقه

    رشد همه‌جانبه هوش مصنوعی به معنی راه‌حل‌های جدیدی برای رویارویی با مشکلات پیچیده بشری است. اما به این دلیل باید توجه ویژه به بحث اخلاق در هوش مصنوعی داشت که قدرت ماشین‌های هوشمند که از هوش مصنوعی می‌آید ممکن است بعضی از حقوق ما انسان‌ها را تضعیف کند.

    تدوین قواعد اخلاقی

    گروه‌ها و انجمن‌های مختلف پژوهشی مجموعه‌ای از قواعد اخلاقی را برای به کارگیری و یا راه‌اندازی هوش مصنوعی و ملزومات آن تدوین کرده‌اند.

    مثلا IEEE به عنوان یک سازمان حرفه‌ای جهانی با محوریت مهندسان یک آیین‌نامه ۲۸۰ صفحه‌ای برای رعایت اخلاق در هوش مصنوعی تدوین کرده است. اتحادیه اروپا از دیگر سازمان‌هایی است که به موضوع اخلاق در هوش مصنوعی توجه داشته است و مجموعه‌ای را با عنوان «فهرست بین‌المللی آیین‌نامه‌های اخلاقی هوش مصنوعی» در این زمینه منتشر کرده است. در این راهنما، بیش از ۱۶۰ دستورالعمل از سراسر جهان گردآوری شده است.

    تعداد سازمان‌هایی که به بحث اخلاق فناوری هوش مصنوعی پرداخته‌‌اند بسیار است، اما بیشتر این سازمان‌ها در اروپا و آمریکای شمالی تأسیس شده‌اند.

    «آنا جوبین» در پژوهشی که انجام داده، چهل مورد از این سازمان‌ها را شناسایی کرده که در کشورهای ایالات متحده، انگلیس و اتحادیه اروپا بوده‌اند.

    آیین‌نامه‌های اخلاق در هوش مصنوعی با منشا غربی بیشتر ارزش‌های جوامعی را بازتاب می‌دهند که برای آن‌ها طراحی شده است.

    برای نمونه ارزش‌هایی مثل احترام به حق استقلال و ارزشمندی فرد در مقابل جمع در جوامع غربی بیشتر مورد توجه ‌اند.

    به هر حال چه در بحث هوش مصنوعی و چه فناوری‌های دیگر، بعضی از ارزش‌ها بین مردم شرق و غرب مشابه اند و برای چارچوب بندی اخلاق‌‌‌‌‌‌‌‌‌ در‌‌‌‌‌‌‌ هوش مصنوعی که یک فناوری جهانی است، باید تمام دیدگاه‌های موجود در میان مردم جهان را در نظر گرفت.

    با این حال این آیین‌نامه‌ها برای اینکه بتوانند به معنای واقعی بازتاب دهنده ارزش‌های شرقی باشند باید سیستم‌های ارزش‌مدار سنتی که در فرهنگ‌های شرقی وجود دارد را نیز در نظر بگیرند.

    با توجه به این موضوع، نکات استخراج شده از اندیشه بودایی نه تنها برای فرهنگ‌های آسیای شرقی  بلکه می‌تواند به نفع تمام متخصصان هوش مصنوعی در سراسر جهان باشد.

    اخلاق در هوش مصنوعی

    بودا و اخلاق‌‌‌‌‌‌ در‌‌‌‌‌‌ هوش مصنوعی

    فسلفه بودا یک تفکر شرقی است که اتفاقا می‌توان از اصول آن برای تدوین آیین‌نامه اخلاقی هوش مصنوعی استفاده کرد.

    زیربنای اساسی اندیشه‌های بودا تمایل به دوری از درد در تمام موجودات هستی است. بودا معتقد است عمل خوب عملی است که هدف آن حرکت از درد و رنج به سمت آزادی باشد.

    پس اگر بودا در جهان هوش مصنوعی زندگی می‌کرد این طور می‌گفت: «توجه به اخلاق در هوش مصنوعی باید به کاهش درد و رنج منجر شود.»

    مثلا در مورد فناوری انواع مدل تشخیص چهره که بخشی از هوش مصنوعی است، فقط باید با هدف کاهش رنج و افزایش سلامتی مورد استفاده قرار بگیرد.

    علاوه بر این، کاهش درد باید برای همه باشد و نه فقط طیف خاصی که مستقیما با هوش مصنوعی سر و کار دارند.

    تفسیر آموزه‌های بودا یعنی اگر سیستمی در حوزه هوش مصنوعی تعمیر می‌شود هدفش جلب رضایت کاربران باشد.

    بر عکس اگر هدف تغییرها یا اعمال، استفاده از این فناوری بر علیه مردم یا برای سرکوب و تجاوز به حریم شخصی آن‌ها باشد، این کاملا غیر‌اخلاقی است.

    گاهی اوقات هم کاربردهایی از فناوری مطرح می‌شوند که مرز بین اخلاقی یا غیراخلاقی بودن آن‌ها مشخص نیست. در این مواقع سازمان یا شرکت مجری طرح باید نشان دهد که این کاربرد صدمه‌ای به کسی وارد نمی‌کند.

    هوش‌‌‌‌‌‌‌‌‌ ‌‌‌‌مصنوعی بدون درد و رنج

    در آیین‌نامه اخلاق‌‌‌‌‌‌‌‌‌‌‌‌ در ‌‌‌‌‌‌هوش مصنوعی که بر اساس آموزه‌های بودا شکل گرفته باشد، به مفهوم پرورش نفس توجه شده است.

    پرورش نفس یعنی آدم‌هایی که با هوش مصنوعی سر و کار دارند، دائما تلاش کنند تا به هدف نهایی حذف درد و رنج برسند.

    طراح‌ها و کدنویس‌ها این حرکت پیوسته به سمت حذف درد و رنج را گام به گام در محصولاتی که خلق می‌کنند ادامه می‌دهند. بنابراین محصولات ارائه شده با هوش مصنوعی می‌توانند به عموم مردم کمک کنند تا ضمن کاهش رنج، سطح رفاه زندگی‌شان را افزایش دهند.

    یکی دیگر از آموزه‌های اخلاقی بودا مسئولیت‌پذیری است که به توسعه اخلاق‌‌‌‌‌‌ در‌‌‌‌‌‌‌ حوزه هوش مصنوعی نیز کمک می‌کند. به عبارت دیگر مسئولیت‌پذیری در برابر جامعه است که شرکت‌های هوش مصنوعی را به هدف‌شان که همان حذف درد و رنج از زندگی مردم است، می‌رساند.

    مسئولیت‌پذیری با توجه به اخلاق در هوش مصنوعی یعنی طراحی مکانیسم‌های حقوقی و قانونی در کنار استقلال قضایی.

    این عناصر برای هر آیین‌نامه اخلاقی در حوزه این فناوری که قرار است موثر و کارآمد باشد ضروری است.

    عاطفه و همدلی یا به زبان ساده‌تر تعهد به حذف رنج از زندگی دیگران، آموزه دیگری از بودا است که با پرورش نفس امکان‌پذیر می‌شود.

    کاملا واضح است که سوءاستفاده از قدرت برای سرکوب دیگران با استفاده از هوش مصنوعی به هیچ وجه اخلاقی نیست.

     

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

    این مطلب چه میزان برای شما مفید بوده است؟
    [کل: ۰ میانگین: ۰]

    ربات‌ها در خدمت وکیل ها و مراجعان‌شان

    مقاله قبلی

    ساده‌سازی شبکه‌های عصبی به منظور افزایش توان محاسبتی آن‌ها برای داده های رمزگذاری شده

    مقاله بعدی

    شما همچنین ممکن است دوست داشته باشید

    بیشتر در اخبار

    نظرات

    پاسخ دهید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *