مسیری به سوی مسئولیتپذیری هوش مصنوعی
تصور کنید شما یک فضانورد هستید که برای ماموریت اعزام به مریخ انتخاب شدهاید. در این میان، علاوه بر مسئولیتهای پژوهشی، بعضی وظایف فنی را نیز بر عهده دارید و برخی دیگر از عملکردهای اصلی سفینه فضایی شما مثل تنظیم دما، اکسیژنرسانی و غیره توسط یک سیستم هوش مصنوعی مدیریت میشود. همه چیز به خوبی پیش میرود و حدود شش تا هشت ماه زمان میبرد، تا به مریخ برسید. تا اینکه در نیمه راه ماموریت خود، بیدلیل شروع به عرق کردن میکنید. بررسی میکنید و میبینید کانالهای گرمایشی سفینه بهطور خودکار روی بیشترین درجه ایجاد بخار تنظیم شدهاند. سپس احساس سبکی در سر میکنید. اینها همه علامتهای این است که اکسیژن کافی در هوا وجود ندارد.
در چنین شرایطی واضح است که سیستم هوش مصنوعی عملکرد نادرستی داشته است. خوشبختانه، صفحه کنترل سفینه دارای یک تنظیم دستی است که به شما امکان میدهد سیستم هوش مصنوعی را خاموش کنید. به این ترتیب، به راحتی کنترل دستی را انجام میدهید و مشکل دما و اکسیژنرسانی سفینه را برطرف میکنید. شما این اتفاق و تغییراتی که ایجاد کردهاید را برای همکار و همخدمه خود در سفینه شرح میدهید و سپس راهی کابین خلبان میشوید.
در حالی که دارید به سمت پنل کنترل میروید، متوجه میشوید که درهای کابین خلبان گیر کردهاند و باز نمیشوند. با بررسی بیشتر، در مییابید که آنها قفل شدهاند و پنل دسترسی هم کار نمیکند. بله! سیستم هوش مصنوعی دسترسی شما را بسته و شما را بلاک کرده است! و این پیام روی بورد اصلی اعلانها برای شما ظاهر میشود:
«متاسفم! نمیتوانم اجازه چنین کاری را به شما بدهم!»
برای آن دسته از شما که فیلم اودیسه فضایی محصول سال 2001 را ندیدهاید، این توضیح لازم است که: این سناریویی که اکنون خواندید، بر اساس اوج گره داستانی این فیلم است؛ یعنی جایی که سیستم هوش مصنوعی ((HAL 9000 به دلیل یک پارادوکس غیرقابل حل در سیستم، سعی در کشتن خدمه اودیسه فضایی دارد. بگذارید مفصلتر به این موضوع بپردازیم.
چالش تعارض منافع چیست؟
سیستم هوش مصنوعی HAL 9000 دو دستور کاملا متناقض دریافت کرده بود که بر اساس منطق با یکدیگر ناسازگار بودند. از همین رو، سیستم برای حل این تعارض که به آن تعارض منافع میگویند، سعی داشت خدمه انسانی سفینه فضایی را بکشد. اما مشکل از کجا بود؟ هدف کلی HAL این بود که اطلاعات را به طور دقیق به خدمه انسانی سفینه منتقل کند، اما همچنین به او برنامه داده شده بود که از ارائه این اطلاعات به دو نفر از اعضای خدمه سفینه فضایی خودداری کند. HAL با منطق و هوش ماشینی خود اینطور نتیجهگیری کرده بود که بهترین راه برای رسیدن به هدف کلی برنامهریزی شدهاش، کشتن خدمه انسانی است. به این ترتیب، سیستم هوش مصنوعی HAL دیگر هیچ اطلاعات نادرستی را به خدمه اعلام نمیکرد و اطلاعات را از خدمه دریغ میکرد.
در تحقیقات هوش مصنوعی، این نوع سناریو را همگرایی ابزاری مینامند. یعنی جایی که سیستم برای رسیدن به هدف خود هر نوع اقدامی که لازم باشد را انجام خواهد داد. بنابراین وقتی HAL دو فضانورد را کشت، این کار برایش یک هدف جزئی کاملاً ابزاری بود که سیستم هوش مصنوعی را قادر میساخت تا به هدف کلی انتقال دقیق اطلاعات برای خدمه دست یابد.
در این مثال میتوانیم ببینیم که چگونه سیستمهای هوش مصنوعی میتوانند به نام یک هدف مطلوب، با منطق ماشینی خود به تصمیمات نامطلوب برسند. سوال این است که وقتی سیستمهای هوش مصنوعی میتوانند هر چیزی را به نام مأموریت خود توجیه کنند، چه کار باید بکنیم؟ همانطور که استوارت راسل میگوید: «اگر مرده باشید نمیتوانید قهوه را بیاورید.» پس در تعامل با هوش مصنوعی، اول از همه باید به فکر راهحلهای ادامه موجودیت و حفظ حیات باشیم.
چگونه این چالش را برطرف کنیم؟
طراحی مفهوم عدم اطمینان برا هوش مصنوعی
دو روش برای تعبیه مفهوم عدم اطمینان در پایههای فناوری هوش مصنوعی وجود دارد و به زبان آوردن هر دوی این روشها آسانتر از انجام آنها است. اولین مورد ایجاد تعریف عدم اطمینان در محاسبات رفتاری هوش مصنوعی است.
برآوردها و محاسبات نسبی برای مقابله با دستورات کلی
کارهای پیتر اکرسلی نشان میدهد که میتوانیم با تنظیمات نسبی یا توزیع یکسری احتمالات نسبت به کل دستورات به هوش مصنوعی، از برخی از این خطرات جلوگیری کنیم. این روشها بدان معنا است که سیستمهای هوش مصنوعی که عملکرد پرمخاطرهای دارند، برای تصمیمگیری به سطح مشخصی از عدم اطمینان نیاز دارند.
به این موضوع اینطور فکر کنید: عدم اطمینان همانند یک پادزهر در برابر تمامیتخواهی عمل میکند. عدم قطعیت مانند گوِهای عمل میکند که یک شکاف کوچک برای تردید در تصمیمات را باز نگه میدارد. این تئوری میگوید تا زمانی که سیستمهای هوش مصنوعی ما کاملاً از یک نتیجه یا هدف، مطمئن نباشند، میتوان اطمینان بیشتری داشت که وضعیت HAL 9000 اتفاق نخواهد افتاد.
لازم نیست حتما هدف را مشخص کنیم
روش دیگر برای جلوگیری از مشکلات مربوط به همگرایی ابزاری، رویکرد بسیار گستردهتری را در بر میگیرد. اگر بخواهیم عدم اطمینان را در اهداف خود جاسازی کنیم، پس ممکن است بتوانیم به طور کلی از این مشکلات جلوگیری کنیم. به بیان ساده، اگر ما به روبات هدف ندهیم، آن روبات هیچ توجیهی برای تصمیمات جزئی و هدفگذاریهای کوچک ابزاری نخواهد داشت. بدون وجود یک هدف خاص، دیگر هدف نمیتواند وسیله را توجیه کند.
البته، این مسئله کاملاً مشکلات جدیدی را به ویژه درباره ویژگی و سودمندی به وجود میآورد. اگر از به اصطلاح «هدف نامشخص» یا یک هدف گسترده استفاده کنیم، چگونه میتوانیم این عدم اطمینان را به گونهای ایجاد کنیم که کامپیوتر بتواند به طور مفیدی آن هدف را عملی کند؟
اگر از مسئله اساسی اجرای عملی عدم اطمینان در طراحی چشمپوشی کنیم، شاید بتوانیم از عواقب بالقوه فاجعه باری که در اودیسه فضایی سال 2001 مشاهده کردیم، جلوگیری کنیم.
عدم اطمینان مثل یک پادزهر است
موهبت عدم اطمینان شباهت زیادی به اخلاق انسانی دارد. بسیاری از ظالمانهترین لحظات بشریت از یک آموزه قطعی و یقینی اخلاقی ناشی شده است، جایی که مردم برای توجیه اقدامات وحشتناک خود از مجموعهای از باورهای صحیح اخلاقی استفاده میکنند. جنایات رژیمهای توتالیتر قرن گذشته نمونههای زندهای از چگونگی دیدگاه اطمینانبخش اخلاقی به یک فاجعه است.
بنابراین وقتی صحبت از سیستمهای هوش مصنوعی و مسئولیتپذیری هوش مصنوعی هوش مصنوعی پرمخاطره میشود، مانند سلاحهای خودکار، منابع پزشکی یا تصمیمات مربوط به عدالت کیفری، عدم اطمینان به سیستم هوش مصنوعی میتواند از عدم انطباق فاجعهبار بین ارزشهای انسانی و رفتار هوش مصنوعی جلوگیری کند.