مقدمهای بر اخلاق هوش مصنوعی
توسعۀ هوش مصنوعی در حال رونق است و مدلهای بزرگ زبانی بهطور چشمگیری صنایع گوناگون را متحول کردهاند. اما این رشد سریع، نگرانی های اخلاقی چشمگیری بههمراه خود به ارمغان میآورد. تعصبات موجود در داده ممکن است به نتایج تبعیضآمیز منجر شوند و عدم شفافیت ممکن است نحوه تصمیمگیری سیستمهای هوش مصنوعی را پنهان کند.
اخلاق هوش مصنوعی
اخلاق هوش مصنوعی ممکن است به نظر مفهومی انتزاعی بیاید. برای درک «اخلاق هوش مصنوعی» باید ابتدا به معنای اخلاق توجه کنیم. بهطورخلاصه، اخلاق، زیرشاخهی فلسفه است که به ما چارچوبی برای تصمیمگیری درمورد آنچه اخلاقی و غیراخلاقی است، ارائه میدهد. در حوزه فناوری، این مفهوم معنای مشخصی پیدا میکند: «اخلاق هوش مصنوعی به کاربرد چارچوبهای اخلاقی در توسعه و استفاده از هوش مصنوعی اشاره میکند.»
الگوریتمهای تبعیضآمیز در تأیید وام یا سیستمهای نامفهوم تشخیص چهره نمونههایی از تأثیرات منفی هوش مصنوعی بدون توجه به اخلاق هستند که میتواند به نتایج ناعادلانه منجر شود. اخلاق هوش مصنوعی با ایجاد اصول راهنما برای توسعۀ مسئولانۀ این فناوری، به این نگرانیها میپردازد.
هدف این اصول ترویج انصاف، پاسخگویی، شفافیت و حریم خصوصی در طول چرخۀ حیات هوش مصنوعی است. با درک و اعمال این اصول، دانشمندان داده میتوانند اطمینان حاصل کنند که هوش مصنوعی بهطور عادلانه و مسئولانه به نفع همه عمل میکند.
اهمیت اخلاق هوش مصنوعی
تواناییهای هوش مصنوعی بر اساس دادههایی که بر روی آنها آموزش میبیند شکل میگیرد. این دادهها میتوانند شامل اطلاعات تاریخی، کد و عناصر دیگر باشند که ممکن است انحرافات اجتماعی یا تعصبات را نشان دهند. اگر چنین انحرافاتی وجود داشته باشد، هوش مصنوعی میتواند آنها را در خروجیهای خود تکرار یا حتی تقویت کند.
بنابراین، اولویتبندی ملاحظات اخلاقی در توسعۀ هوش مصنوعی بسیار مهم است. برای مثال، در تجزیه و تحلیل دادههای بیمار، هوش مصنوعی با شناسایی الگوها میتواند بینشهای ارزشمندی تولید کند که به متخصصان بهداشت و درمان کمک میکند. این امر میتواند زمان بررسی و دقت را بهطور چشمگیری بهبود بخشد، به تشخیص سریعتر، برنامههای درمانی مؤثرتر و در نهایت، نتایج بهتر بیمار با کاهش استرس منجر شود.
درحالیکه هوش مصنوعی پتانسیل فوقالعادهای برای حل مشکلات پیچیده دارد، توسعه و استفاده از آن مسائل اخلاقی را نیز مطرح میکند. این نگرانیها میتوانند به دو دستۀ کلی کوتاهمدت و بلندمدت تقسیم شوند که در بخشهای بعدی به بررسی هر یک خواهیم پرداخت.
خطرات اخلاقی کوتاهمدت هوش مصنوعی
تعصب
برای اطمینان از عادلانه و بیطرف بودن مدلهای هوش مصنوعی، دادههای آموزشی باید نمایندۀ کل جمعیتی باشند که مدل روی آن استفاده خواهد شد، با توجه ویژه به گنجاندن گروههای اقلیت. اگر دادههای آموزشی نتوانند جوامع حاشیهای را به درستی منعکس کنند، سیستمهای هوش مصنوعی میتوانند خروجیهای مغرضانه تولید کنند و اختلافات در نتایج آنها را بیشتر کنند.
«دکتر جوی بوولامینی»، هنرمند ارشد و رئیس لیگ عدالت الگوریتمی، با مواجهه با سیستم تشخیص چهره مغرض، به این نتیجه رسید که: «برخی چهره ام را مثل ماسک سفید تشخیص ندادند. و سپس برخی دیگر که چهره ام را تشخیص دادند، مرا با برچسب مرد معرفی کردند که من نیستم.»
این وضعیت بهضرورت بررسی مسائل جنسیتی و تنوع پوست اشاره می کند. با سرعت زیاد ادغام هوش مصنوعی در فرایندهای کسبوکار، بهویژه آنهایی که تصمیمات با تأثیر بالا را هدایت میکنند، چنین انحرافات کنترلنشدهای میتواند خدمات و مراقبت را بهطور اشتباه به نیازمندان انکار کند. برای مثال، گزارششده است که سیستم هوش مصنوعی مشابهی، ادعای بیمۀ درمانی سالمندان را رد کرده است.
خطرات امنیتی و حریم خصوصی دادهها
دادههای آموزشی ورودی مغرض تنها یکی از چالشهای دادهای است که سیستمهای هوش مصنوعی با آن مواجه هستند. نگرانی عمده دیگری زمانی ایجاد میشود که دادههای آموزشی شامل اطلاعات حساس مانند اطلاعات شخصی، سوابق بهداشتی یا جزئیات مالی باشد.
نقض امنیتی ممکن است این دادههای حساس را درمعرض خطر قرار دهد و به سرقت هویت، کلاهبرداری مالی و سایر استفادههای مخرب منجر شود. علاوه بر این، بازیگران بد میتوانند با استفاده از حملات دادۀ ورودی خصمانه، پاسخهای سیستمهای هوش مصنوعی را دستکاری کنند. این حملات میتوانند به تغییر خروجیهای سیستم و ایجاد مشکلات امنیتی جدی منجر شوند.
اطلاعات نادرست و گمراهکننده
درحالیکه مسائل قدیمی دادهها مانند نمایش نادرست و حریم خصوصی همچنان وجود دارند، ظهور برنامههای کاربردی هوش مصنوعی مولد نگرانیهای جدیدی بهویژه دربارۀ اطلاعات نادرست و گمراهکننده ایجاد کرده است. نوآوریهای هوش مصنوعی مولد که قادر به تولید خروجیهایی مشابه انسان هستند، میتوانند محتوای جعلی را بهصورت گسترده منتشر کرده و اطلاعات نادرست را تقویت کنند.
MIT Technology Review نیز به این نگرانیها اشاره کرده است: «آزادی اینترنت در پایینترین سطح خود است و پیشرفتهای هوش مصنوعی این بحران را حتی بدتر میکند. مقرونبهصرفه بودن و دسترسی به هوش مصنوعی مولد، مانع ورود به کمپینهای اطلاعات نادرست را کاهش میدهد.»
خطرات بلندمدت هوش مصنوعی
جابهجایی شغل
یکی از مزایای اصلی هوش مصنوعی افزایش کارایی از طریق خودکارسازی فرآیندها است. بااینحال، واقعیت تلخ این خودکارسازی، به از دست دادن شغل منجر می شود؛ بهویژه مشاغلی که شامل کار کممهارت، تکراری یا روتین مانند خدمات مشتری و پشتیبانی اداری هستند.
برای بدتر شدن اوضاع، گروههای حاشیهای یا آسیبپذیر که مشاغلشان در معرض خطر قرار دارند، اغلب منابع کافی و دسترسی به فرصتهای مناسب برای ارتقای مهارت یا بازآموزی برای نقشهای جدیدتر ندارند. هرچند پیشرفتهای هوش مصنوعی مشاغل جدیدی خلق کردهاند، نتیجۀ کلی جابهجایی چشمگیر شغلی است که با مزایای خودکارسازی هوش مصنوعی هدایت میشود.
فرسایش حریم خصوصی و خودمختاری انسان
سیستمهای تشخیص چهره و صوتی مبتنی بر هوش مصنوعی میتوانند داده های ورودی از دستگاههای نظارتی را تجزیه و تحلیل کنند تا افراد را در زمان واقعی شناسایی و ردیابی نمایند. بااینحال، چنین نظارت جمعی اغلب بدون رضایت انجام میشود و بنابراین نگرانی هایی دربارۀ فرسایش حریم خصوصی ایجاد میکند. علاوه بر این، الگوریتمهای پیشبینیکننده پلیس که برای تشخیص جرم استفاده میشوند، میتوانند تعصبات اجتماعی موجود دربارۀ نظارت بیش از حد بر گروههای اقلیت را ادامه دهند و تقویت کنند.
درحالیکه قانون هوش مصنوعی اتحادیۀ اروپا محدودیتهایی را برای استفاده از الگوریتمهای تشخیص چهره اعمال میکند، این کار ممکن است در کشورهای کمتر دموکراتیک رعایت نشود و نگرانی های گستردهای دربارۀ اخلاق و حقوق بشر ایجاد کند.
خطر عدم تطابق هوش مصنوعی و وجودی
با پیشرفت سریع سیستمهای خودمختار هوش مصنوعی، پرسشی مهم در حال مطرحشدن است: آیا ما به سمت «فوق هوش» در حال شتاب هستیم؟ این سناریوی فرضی، به معنای هوش مصنوعی است که از تواناییهای شناختی انسان پیشی میگیرد و ممکن است تهدیداتی را بههمراه داشته باشد.
نگرانی اصلی در عدم تطابق بالقوه بین اهداف هوش مصنوعی و ارزشهای انسانی نهفته است. احتمال تصمیمگیری بالقوه مضر توسط هوش مصنوعی خودمختار، پرسشی اساسی را مطرح میکند: چه کسی آنها را کنترل میکند؟ درحالیکه دستیابی به فوق هوش و شعور ممکن است به نظر هدفی دور از دسترس بیفتد، پیشرفتهایی مانند GPT-4 برخی آیندهنگران را وادار میکند تا آن را بهعنوان احتمالی جدی در نظر بگیرند.
«جفری هینتون»، یکی از دانشمندان برجسته کامپیوتر، در مصاحبۀ اخیر خود بر تواناییهای بیسابقه این مدلهای بزرگ هوش مصنوعی تأکید کرده و هشدار میدهد که این «یک شکل کاملاً متفاوت از هوش» است. با توجه به چشمانداز فعلی توسعۀ هوش مصنوعی، نگرانیهایی درمورد استفاده از هوش مصنوعی برای اهداف مخرب، مانند تغییر انتخابات از طریق دست کاری اجتماعی، نظارت گسترده، جنگافروزی و غیره وجود دارد.
از سوی دیگر، اندرو نگ، مربی و کارآفرین برجستۀ هوش مصنوعی، اعتقادی به ترس از هوش مصنوعی برای کسب فوق هوش و آسیب به بشریت ندارد. او معتقد است که فناوریها و سیستمهای موجود درحالحاضر ایمن اند و با پیشرفتهای بیشتر، امنتر خواهند شد. بااینحال، او طرف دار ایجاد اقدامات ایمنی پیشرفته برای رسیدگی به هرگونه خطر بالقوه باقیمانده، مانند استفادۀ نادرست از هوش مصنوعی مولد برای ایجاد سلاح های زیستی است.
چه کسی باید در اخلاق هوش مصنوعی دخیل باشد؟
خطرات هوش مصنوعی به توجه فوری و اقدامات و کنترل قوی برای جلوگیری از تشدید آنها نیاز دارند. با توجه به پیچیدگی و چندوجهی بودن این خطرات، واضح است که هیچ نهاد واحدی، چه فرد و شرکت یا دولت، نمیتواند بهتنهایی این چالشها را پیشبینی و برطرف کند.
این مسئله مستلزم ایجاد یک شورای چند ذینفع با نمایندگانی از دولتها، دانشگاهها، متخصصان صنعت و سازمانهای غیرانتفاعی است. این شورا باید هنجارها و دستورالعملهایی را برای تضمین توسعه، استقرار و استفادۀ مسئولانه از هوش مصنوعی تعریف کند و آیندهاش را بهگونهای شکل دهد که تنها مزایا افزایش یابند و نه خطرات.
مثالهای اخلاق هوش مصنوعی
برای درک پیامدهای نادیدهگرفتن اخلاق در ساخت مدلهای هوش مصنوعی، بیایید به برخی از موارد تاریخی نگاه کنیم: یک حادثۀ هشداردهنده از تعصب اجتماعی زمانی آشکار شد که هوش مصنوعی کدی تولید کرد که بر اساس نژاد و جنسیت، ارشدیت را پیشبینی میکرد و گروههای اقلیت را در موقعیت نامطلوبی قرار میداد. بهعنوانمثال، یکی از مدلها زنان سیاهپوست را بهعنوان خردسال و مردان سیاهپوست را بهعنوان سطح میانی طبقهبندی کرده بود.
همچنین، این مدل فرض کرده بود که زنان سفیدپوست در سطح میانی هستند و مردان سفیدپوست بهعنوان ارشد معرفیشده بودند. در مورد دیگری، مدلی پیشبینی کرد که بیماران سیاهپوست کمتر به مراقبت اضافی نیاز دارند و آنها را سالمتر از بیماران سفیدپوست اعلام کرد.
این تعصب نژادی باعث شد بسیاری از بیماران سیاهپوست از مراقبتهای ضروری محروم شوند. یک نمونۀ دیگر کاربرد پرکاربرد هوش مصنوعی، عدالت پیشبینیکننده است. در اینجا، مدلهای هوش مصنوعی برای ارزیابی خطر ارتکاب جرایم آینده توسط متهمان استفاده میشود.
اما این مدل ها نگرانی هایی دربارۀ تعصب ایجاد کردهاند، زیرا در برخی موارد، احتمال بازگشت به جرم برای متهمان سیاهپوست بیشتر از متهمان سفیدپوست پیشبینیشده است. اینها تنها چند نمونه از موقعیتهایی هستند که گروههای کمنماینده بهدلیل مدلهای مغرضانه، بهطور ناعادلانه تحت تأثیر قرار گرفتهاند.
اصول اخلاق هوش مصنوعی
با پیشرفت اخلاق هوش مصنوعی، دستورالعملها، ابزارها، بهترین شیوهها و استانداردهای صنعت برای تسهیل توسعۀ مسئولانه بهطور فزایندهای در دسترس قرار گرفتهاند. برخی از اصول اصلی مشترک در این چهارچوبها، تمرکز بر ارتقای شفافیت و انصاف را شامل میشود. شفافیت به معنای تنها توضیح نحوه رسیدن مدل به نتیجه ای خاص نیست، بلکه مستلزم افشای منبع پاسخ به کاربر نهایی است.
این امر به کاربران اجازه می دهد ماهیت پاسخ تولیدشده توسط هوش مصنوعی را درک کنند و بر اساس آن تصمیمات آگاهانه بگیرند. انصاف نیز به همان اندازه مهم است و باید تضمین شود که هیچ بخش، گروه، جامعه، سن، جنسیت یا جمعیت خاصی بهطور ناعادلانه در موقعیت نامطلوبی قرار نگیرد.
آیندۀ اخلاق هوش مصنوعی
توسعۀ تکنولوژی پیشرفته بهسرعت در حال پیشرفت است و این سرعت بیشتر از سرعت تنظیم و نظارت بر آن است. دولتها و نهادهای نظارتی در حال تلاش برای توسعه و اجرای چارچوبهای نظارتی، مانند قانون هوش مصنوعی، هستند تا استفاده مسئولانه از فناوریهای هوش مصنوعی را تنظیم کنند.
این چارچوبها، درعینحال که حریم خصوصی، امنیت و حقوق بشر را حفظ میکنند، بر شفافیت، پاسخ گویی، انصاف و ایمنی در سیستمهای هوش مصنوعی تأکید می کنند. بااینحال، مسئولیت بهتنهایی بر عهده نهادها نیست؛ بلکه مصرفکنندگان و تولیدکنندگان سیستمهای هوش مصنوعی نیز باید نقش فعالی داشته باشند.
ما باید با آخرین پیشرفتها در چشمانداز هوش مصنوعی بهروز باشیم و بهطور مداوم اقدامات دفاعی خود را برای کاهش آسیبها و خطرات اجتنابناپذیر با مزایای هوش مصنوعی افزایش دهیم. با ادغام پیشگیرانۀ اصول اخلاق هوش مصنوعی در فرآیند طراحی، میتوانیم بهتر آماده شویم تا با چالشهای اخلاقی فردا بهطور مستقیم مقابله کنیم.