Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 نگاهی به 3 پیشنهاد بودا برای رعایت اخلاق در هوش مصنوعی

نگاهی به 3 پیشنهاد بودا برای رعایت اخلاق در هوش مصنوعی

زمان مطالعه: 3 دقیقه

رشد همه‌جانبه هوش مصنوعی به معنی راه‌حل‌های جدیدی برای رویارویی با مشکلات پیچیده بشری است. اما به این دلیل باید توجه ویژه به بحث اخلاق در هوش مصنوعی داشت که قدرت ماشین‌های هوشمند که از هوش مصنوعی می‌آید ممکن است بعضی از حقوق ما انسان‌ها را تضعیف کند.

تدوین قواعد اخلاقی

گروه‌ها و انجمن‌های مختلف پژوهشی مجموعه‌ای از قواعد اخلاقی را برای به کارگیری و یا راه‌اندازی هوش مصنوعی و ملزومات آن تدوین کرده‌اند.

مثلا IEEE به عنوان یک سازمان حرفه‌ای جهانی با محوریت مهندسان یک آیین‌نامه 280 صفحه‌ای برای رعایت اخلاق در هوش مصنوعی تدوین کرده است. اتحادیه اروپا از دیگر سازمان‌هایی است که به موضوع اخلاق در هوش مصنوعی توجه داشته است و مجموعه‌ای را با عنوان «فهرست بین‌المللی آیین‌نامه‌های اخلاقی هوش مصنوعی» در این زمینه منتشر کرده است. در این راهنما، بیش از 160 دستورالعمل از سراسر جهان گردآوری شده است.

تعداد سازمان‌هایی که به بحث اخلاق فناوری هوش مصنوعی پرداخته‌‌اند بسیار است، اما بیشتر این سازمان‌ها در اروپا و آمریکای شمالی تأسیس شده‌اند.

«آنا جوبین» در پژوهشی که انجام داده، چهل مورد از این سازمان‌ها را شناسایی کرده که در کشورهای ایالات متحده، انگلیس و اتحادیه اروپا بوده‌اند.

آیین‌نامه‌های اخلاق در هوش مصنوعی با منشا غربی بیشتر ارزش‌های جوامعی را بازتاب می‌دهند که برای آن‌ها طراحی شده است.

برای نمونه ارزش‌هایی مثل احترام به حق استقلال و ارزشمندی فرد در مقابل جمع در جوامع غربی بیشتر مورد توجه ‌اند.

به هر حال چه در بحث هوش مصنوعی و چه فناوری‌های دیگر، بعضی از ارزش‌ها بین مردم شرق و غرب مشابه اند و برای چارچوب بندی اخلاق‌‌‌‌‌‌‌‌‌ در‌‌‌‌‌‌‌ هوش مصنوعی که یک فناوری جهانی است، باید تمام دیدگاه‌های موجود در میان مردم جهان را در نظر گرفت.

با این حال این آیین‌نامه‌ها برای اینکه بتوانند به معنای واقعی بازتاب دهنده ارزش‌های شرقی باشند باید سیستم‌های ارزش‌مدار سنتی که در فرهنگ‌های شرقی وجود دارد را نیز در نظر بگیرند.

با توجه به این موضوع، نکات استخراج شده از اندیشه بودایی نه تنها برای فرهنگ‌های آسیای شرقی  بلکه می‌تواند به نفع تمام متخصصان هوش مصنوعی در سراسر جهان باشد.

اخلاق در هوش مصنوعی

بودا و اخلاق‌‌‌‌‌‌ در‌‌‌‌‌‌ هوش مصنوعی

فسلفه بودا یک تفکر شرقی است که اتفاقا می‌توان از اصول آن برای تدوین آیین‌نامه اخلاقی هوش مصنوعی استفاده کرد.

زیربنای اساسی اندیشه‌های بودا تمایل به دوری از درد در تمام موجودات هستی است. بودا معتقد است عمل خوب عملی است که هدف آن حرکت از درد و رنج به سمت آزادی باشد.

پس اگر بودا در جهان هوش مصنوعی زندگی می‌کرد این طور می‌گفت: «توجه به اخلاق در هوش مصنوعی باید به کاهش درد و رنج منجر شود.»

مثلا در مورد فناوری انواع مدل تشخیص چهره که بخشی از هوش مصنوعی است، فقط باید با هدف کاهش رنج و افزایش سلامتی مورد استفاده قرار بگیرد.

علاوه بر این، کاهش درد باید برای همه باشد و نه فقط طیف خاصی که مستقیما با هوش مصنوعی سر و کار دارند.

تفسیر آموزه‌های بودا یعنی اگر سیستمی در حوزه هوش مصنوعی تعمیر می‌شود هدفش جلب رضایت کاربران باشد.

بر عکس اگر هدف تغییرها یا اعمال، استفاده از این فناوری بر علیه مردم یا برای سرکوب و تجاوز به حریم شخصی آن‌ها باشد، این کاملا غیر‌اخلاقی است.

گاهی اوقات هم کاربردهایی از فناوری مطرح می‌شوند که مرز بین اخلاقی یا غیراخلاقی بودن آن‌ها مشخص نیست. در این مواقع سازمان یا شرکت مجری طرح باید نشان دهد که این کاربرد صدمه‌ای به کسی وارد نمی‌کند.

هوش‌‌‌‌‌‌‌‌‌ ‌‌‌‌مصنوعی بدون درد و رنج

در آیین‌نامه اخلاق‌‌‌‌‌‌‌‌‌‌‌‌ در ‌‌‌‌‌‌هوش مصنوعی که بر اساس آموزه‌های بودا شکل گرفته باشد، به مفهوم پرورش نفس توجه شده است.

پرورش نفس یعنی آدم‌هایی که با هوش مصنوعی سر و کار دارند، دائما تلاش کنند تا به هدف نهایی حذف درد و رنج برسند.

طراح‌ها و کدنویس‌ها این حرکت پیوسته به سمت حذف درد و رنج را گام به گام در محصولاتی که خلق می‌کنند ادامه می‌دهند. بنابراین محصولات ارائه شده با هوش مصنوعی می‌توانند به عموم مردم کمک کنند تا ضمن کاهش رنج، سطح رفاه زندگی‌شان را افزایش دهند.

یکی دیگر از آموزه‌های اخلاقی بودا مسئولیت‌پذیری است که به توسعه اخلاق‌‌‌‌‌‌ در‌‌‌‌‌‌‌ حوزه هوش مصنوعی نیز کمک می‌کند. به عبارت دیگر مسئولیت‌پذیری در برابر جامعه است که شرکت‌های هوش مصنوعی را به هدف‌شان که همان حذف درد و رنج از زندگی مردم است، می‌رساند.

مسئولیت‌پذیری با توجه به اخلاق در هوش مصنوعی یعنی طراحی مکانیسم‌های حقوقی و قانونی در کنار استقلال قضایی.

این عناصر برای هر آیین‌نامه اخلاقی در حوزه این فناوری که قرار است موثر و کارآمد باشد ضروری است.

عاطفه و همدلی یا به زبان ساده‌تر تعهد به حذف رنج از زندگی دیگران، آموزه دیگری از بودا است که با پرورش نفس امکان‌پذیر می‌شود.

کاملا واضح است که سوءاستفاده از قدرت برای سرکوب دیگران با استفاده از هوش مصنوعی به هیچ وجه اخلاقی نیست.

 

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]