آیا انسانها قادر به کنترل هوش مصنوعی فوق هوشمند خواهند بود؟
امروزه ما شیفته ماشینهایی هستیم که میتوانند اتومبیلها را کنترل کنند، یک قطعه موسیقی بسازند یا مردم را در بازیهای شطرنج، Go یا Jeopardy شکست دهند. در حالی که هوش مصنوعی به پیشرفت خود ادامه میدهد، برخی از دانشمندان و فیسلوفان درباره خطرات هوش مصنوعی فوق هوشمند غیرقابل کنترل هشدار میدهند.
اخیرا یک تیم بینالمللی محققان از جمله دانشمندان مرکز انسانها و ماشینآلات در موسسه توسعه انسانی ماکس پلانک با استفاده از محاسبات نظری نشان دادند که کنترل هوش مصنوعی فوق هوشمند امکانپذیر نیست. این مطالعه در مجله تحقیقات هوش مصنوعی منتشر شده است.
فرض کنید کسی بخواهد یک سیستم هوش مصنوعی را با هوشی برتر از انسان برنامهریزی کند، در نتیجه این هوش مصنوعی میتواند به طور مستقل یاد بگیرد، به اینترنت وصل شود و ممکن است حتی به تمام دادههای انسانی دسترسی داشته باشد. بنابراین میتواند تمام برنامههای موجود را با آنچه که خود میخواهد جایگزین کند و تمامی ماشینهای آنلاین را در سراسر جهان کنترل کند. آیا این یک آرمانشهر خواهد بود یا یک ویرانشهر؟ آیا هوش مصنوعی میتواند سرطان را درمان کند، صلح جهانی ایجاد کند و از یک فاجعه آب و هوایی جلوگیری کند؟ یا باعث نابودی بشریت و پایان حیات خواهد شد؟
دانشمندان کامپیوتر و فیلسوفها از خود این را میپرسند که آیا ما قادر به کنترل هوش مصنوعی فوق هوشمند هستیم بهطوری که اطمینان حاصل شود که خطری برای بشریت به وجود نمیآورند؟ یک تیم بینالمللی از دانشمندان کامپیوتر با استفاده از محاسبات نظری نشان دادند که کنترل هوش مصنوعی فوق هوشمند اساساً غیرممکن است.
مانوئل کبرایان، یکی از نویسندگان این مقاله که رهبر گروه دیجیتال در مرکز انسان و ماشینآلات موسسه توسعه انسانی ماکس پلانک است میگوید: یک ماشین فوقالعاده هوشمند که جهان را کنترل میکند یک داستان علمی تخیلی به نظر میرسد، اما در حال حاضر ماشینهایی وجود دارند که برخی از کارهای مهم را به طور مستقل انجام میدهند بدون اینکه برنامهنویسان کاملاً بفهمند که آنها چگونه این کار را یاد گرفتهاند. بنابراین این سوال مطرح میشود که آیا این مسئله میتواند در برخی از زمانها غیرقابل کنترل و برای انسان خطرناک باشد؟
دانشمندان دو ایده مختلف را برای چگونگی کنترل هوش مصنوعی فوق هوشمند مطرح کردهاند. از یک سو قابلیتهای هوش مصنوعی فوق هوشمند میتواند به طور خاص محدود شود. به عنوان مثال با قطع اتصال آن از اینترنت و سایر دستگاههای فنی. این کار باعث میشود ماشینها هیچ ارتباطی با دنیای خارج نداشته باشد. با این حال، این هوش مصنوعی فوق هوشمند، ضعیف است و توانایی کمتری در پاسخگویی به سوالات دانشمندان دارد.
با این کار، هوش مصنوعی از همان ابتدا میتواند انگیزه داشته باشد که فقط اهدافی را دنبال کند که به نفع بشریت باشد. به عنوان مثال با آموزش اصول اخلاقی به آن. با این حال محققان میگویند که این ایدهها و سایر ایدههای معاصر و تاریخی برای کنترل هوش مصنوعی فوق هوشمند، محدودیتهای خودش را دارد.
این تیم در مطالعه خود یک الگوریتم مهارکننده نظری را ابداع کردند که اطمینان حاصل کند هوش مصنوعی فوق هوشمند تحت هیچ شرایطی نتواند به مردم آسیب برساند. روال کار بدین صورت است که ابتدا رفتار هوش مصنوعی شبیهسازی شود و هرکجا که این رفتار به سمت و سوی خطرآفرینی رفت متوقف شود. اما نکته این است که تحلیلهای بعدی نشان داد که در الگوی محاسبات فعلی، چنین الگوریتمی قابل ساخت نیست.
ایاد رهوان، مدیر مرکز انسانها و ماشینآلات میگوید: اگر مسئله را به قوانین اساسی علوم رایانه نظری تقسیم کنید مشخص میشود که ما حتی اگر الگوریتمی بسازیم که به یک هوش مصنوعی دستور دهد جهان را از بین نبرد، میتواند ناخواسته این دستور را نادیده بگیرد. اگر این اتفاق بیفتد نمیدانید که الگوریتم مهارکننده هنوز در حال بررسی تهدید است یا اینکه دیگر به فکر مهار خطر هوش مصنوعی نیست. در واقع این مساله، الگوریتم مهار را غیرقابل استفاده میکند.
بر اساس این محاسبات، مسئله مهار غیرقابل اطمینان است. به عنوان مثال هیچ الگوریتمی نمیتواند راهحلی بیابد که بر اساس آن تعیین کند آیا هوش مصنوعی به دنیا آسیب میرساند یا نه. همچنین محققان نشان دادند که ما حتی نمیتوانیم بفهمیم ماشینهای فوق هوشمند چه زمانی به زندگی انسانها وارد می شود؛ زیرا این نکته مستلزم این است که یک ماشین نشان دهد هوشاش برتر از انسانها است و این مشکل در همان قلمرو مساله مهار است.
شما چه فکر میکنید؟ آیا هوش مصنوعی فوق هوشمند میتواند روزی به زندگی انسانها پایان دهد؟
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید