آیا استفاده از جعبۀ سیاه هوش مصنوعی برای مراقبتهای بهداشتی اخلاقی و منصفانه است ؟
اخیراً مطالعات گستردهای در زمینۀ اخلاقی بودن یا نبودن استفاده از جعبۀ سیاه هوش مصنوعی برای مراقبتهای بهداشتی صورت گرفته است. نتیجۀ بهدستآمده نشان میدهد که اگر اطلاعات دادهشده به آن با قوانین فنی و اخلاقی خاصی جمعآوری شده باشند، استفاده از جعبۀ سیاه هوش مصنوعی، ایمنتر و فراگیرتر خواهد شد.
نحوۀ استفاده از جعبۀ سیاه هوش مصنوعی در مراقبتهای بهداشتی
جعبۀ سیاه هوش مصنوعی به سیستمی میگویند که نحوۀ عملکردش برای کاربر مشخص نباشد. شما هنگام بهکاربردن این سیستمها تنها میتوانید دادههایی را بدهید و خروجیهایی را دریافت کنید و کد سیستم یا منطقی که با آن خروجی بهدستآمدهاست، برای شما پوشیده میماند. کریستوف هورمپلی، رئیس بخش هوش مصنوعی یکی از بزرگترین بانکهای جهان، در جلسهای که درمورد میزان توضیحپذیری جعبۀ سیاه هوش مصنوعی برگزار شده بود، این پرسش را مطرح کرد:
«چگونه میتوان از بیشترین میزان عملکرد جعبۀ سیاه هوش مصنوعی بهره ببریم؛ بدون آنکه وقت و انرژی زیادی را صرف توضیح پیچیدگیهای نحوۀ سازوکار آن کنیم؟»
علاوهبر هورمپلی، بسیاری از متخصصان بر این باوراند که تمرکز بر توضیحپذیری این ابزار بهجای بهرهمندی از عملکرد سودمند آن، زمانبر و پرهزینه است و اثرات نامطلوب زیستمحیطی به دنبال دارد. اما با بررسی دقیقتر فضاهای ورودی و خروجی میتوان بدون درک عملکرد درونی به میزان دقت و انصاف جعبۀ سیاه هوش مصنوعی پی برد.
بااینهمه استفاده از این ابزار در صنعت پزشکی و مراقبتهای بهداشتی به توضیح بیشتری از سازوکار آن نیاز دارد. برای مثال ممکن است در مواردی نتیجهگیری مبتنیبر هوش مصنوعی درمورد تصویربرداری تشخیصی، بر نژاد بهخصوصی بهطور کاملاً غیر منصفانه تأثیر بگذارد. در این حالت باید با توضیح نحوۀ عملکرد آن، علت این سوگیریهای نامناسب و ناعادلانه را دریافت. در غیر این صورت استفاده از جعبۀ سیاه هوش مصنوعی در صنعت مراقبتهای بهداشتی بهکلی زیر سوال میرود و بهتدریج محدودتر میشود.
راهحلی که پیشنهاد میشود این است که متخصصان اخلاق در مرحلۀ جمعآوری و پردازش اطلاعات، با اولویت قرار دادن مسائل اخلاقی و رسیدگی به مسائل مربوط به سوگیری دادهها، بر نحوۀ عملکرد جعبۀ سیاه هوش مصنوعی نیز تاثیر بگذارند. در این صورت در آینده کمتر شاهد نتایج غیر منصفانه خواهیم بود. ازسویدیگر در صنعت پزشکی و تجهیزات بهکارگرفتهشده در آن، اتحادیۀ اروپا یک چارچوب نظارتی وضع کرده است. در این مقررات، نظارت دقیق و جمعآوری مداوم دادهها ضروری است. در این حالت کارایی دستگاهها ایمنتر و استفاده از جعبۀ سیاه هوش مصنوعی گستردهتر و اخلاقیتر میشود.
جمع بندی
با بهرهگیری از جعبۀ سیاه هوش مصنوعی تنها ورودی و خروجی دادهها برای کاربر مشخص میشود و سازوکار و منطق بهکاررفته در آن، از او پوشیده میماند. در این حالت ممکن است در نتیجۀ بهدستآمده شاهد ناعدالتیها و سوگیریهای گوناگون باشیم. برای رفع این مشکلات پیشنهاد میشود که متخصصان اخلاق بر دادههای ورودی و خروجی با دقت نظارت داشته باشند. همچنین در صورت مشاهدۀ هرگونه سوگیری، اطلاع دهند. علاوهبراین با قوانین وضعشده درمورد تجهیزات صنعت پزشکی و مراقبتهای بهداشتی، تا حدود زیادی میتوان از این آسیبهای جعبۀ سیاه هوش مصنوعی در امان ماند.