راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی
آیا یک هوش مصنوعی میتواند تصادفاً همه ما را به گیره کاغذ تبدیل کند؟
هوش مصنوعی کاری را که از آن میخواهید انجام میدهد، اما نه لزوماً آن چیزی که منظورتان است.
در سال ۲۰۰۳ «نیک بوستروم» (Nick Bostrom) فیلسوف دانشگاه آکسفورد، یک آزمایش فکری را مطرح کرد. تصور کنید به یک هوش مصنوعی ابرهوشمند یا به اصطلاح رایج Superintelligent؛ گفته شود هدف آن تولید هرچه بیشتر گیره کاغذ است. بوستروم پیشنهاد کرد که این هوش مصنوعی میتواند بهسرعت تصمیم بگیرد که نابودی تمام انسانها برای مأموریتش حیاتی است؛ هم به این دلیل که ممکن است آن را خاموش کنند و هم به این دلیل که آنها پر از اتمهایی هستند که میتوانند به گیره کاغذ بیشتر تبدیل شوند.
البته که این سناریو مضحک است؛ اما یک مسئله نگرانکننده را نشان میدهد. هوش مصنوعی مثل ما «فکر» نمیکند و اگر ما در بیان دقیق آنچه از آنها میخواهیم انجام دهد بسیار محتاط نباشیم، هوش مصنوعی میتواند به روشهای غیرمنتظره و آسیبزنندهای رفتار کنند. «برایان کریستین» (Brian Christian)، نویسنده کتاب «مسئله همراستایی» (The Alignment Problem) و محقق مهمان دانشگاه برکلی میگوید: «سیستم آنچه را که شما واقعاً مشخص کردهاید بهینه میکند، نه آنچه را که قصد داشتید.»
آن مشکل به این سؤال خلاصه میشود که چگونه اطمینان حاصل کنیم مدلهای هوش مصنوعی تصمیماتی همسو با اهداف و ارزشهای انسانی میگیرند. چه نگران خطرات وجودی بلندمدت مانند انقراض بشریت باشید یا چه نگران آسیبهای فوری مانند اطلاعات غلط و تعصب ناشی از هوش مصنوعی باشد؛ با مسئله مهمی روبهرو هستیم.
برخی پژوهشگران هوش مصنوعی گمان میکنند که «همراستایی» کاری بیهوده است. «رومن یامپولسکی» (Roman Yampolskiy) از دانشگاه Louisville معتقد است همیشه تعادلی بین قابلیتهای یک هوش مصنوعی و توانایی ما برای کنترل آن وجود خواهد داشت. او ادعا میکند که از طریق کار نظری نشان داده است که اجزای کلیدی مورد نیاز برای کنترل هوش مصنوعی؛ یعنی پیشبینی و توضیح تصمیمات آن، تأیید اینکه از طراحی خود پیروی میکند و تعیین اهداف بهخوبی تعریفشده، در مواجهه با هوش مصنوعی ابرهوشمند اساساً غیرممکن است.
ملانی میچل نیز میگوید حقیقت این است که اصلاً روشن نیست ما در یک حرکت اجتنابناپذیر به سمت «ابرهوش مصنوعی» (Artificial Superintelligence) باشیم. این بدان معناست که شاید بهتر باشد نگران آسیبهای کوتاهمدت هوش مصنوعی ناهمراستا باشیم. درهرصورت، دلیلی وجود دارد که باور کنیم کل این تلاش ممکن است ذاتاً ناقص باشد.
تمام شواهد از علوم اعصاب و روانشناسی نشان میدهد که توسعه هوش در انسانها ذاتاً با اهداف ما پیوند خورده است؛ بنابراین بعید به نظر میرسد که بتوانید ارزشهای انسانی را به ماشینی که تحت شرایط کاملاً متفاوتی توسعه یافته است، منتقل کنید. میچل میگوید: «یک سیستم واقعاً هوشمند، واقعاً ارزشهای خودش و اهداف خودش را خواهد داشت که تحتتأثیر هر چیزی که یاد گرفته است قرار دارند، درست به همان شیوهای که ما هستیم.»
