طبق محاسبات، انسانها قادر به کنترل ماشین های فراهوشمند نیستند
پژوهشگران معتقدند انسانها هرگز قادر به کنترل و محدودسازی هوش مصنوعی بزرگ و ماشین های فراهوشمند نخواهند بود. این فرضیه هولناک است، اما دانستن آن برای دانشمندان مشغول در این عرصه مفید است.
در حال حاضر هم هوش مصنوعی خودآموز وجود دارد؛ این هوش مصنوعی میتواند چیزهایی را به خود آموزش دهد که خود برنامهنویسان قادر به درک کامل آن نیستند.
پژوهشگران مؤسسهی توسعهی انسانی مکس پلانک آلمان در یکی از مطالعات جدید خود نشان دادهاند که انسانها نمیتوانند حتی با استفاده از نرمافزارها، یک هوش مصنوعی فراهوشمند را کنترل کنند.
هیچ چیز ساده نیست
مؤسسهی توسعهی انسانی برلین به مطالعهی این موضوعات میپردازد:
- انسانها چطور میآموزند،
- چطور ماشینها را میسازند، و
- چگونه به آنها آموزش میدهند.
ماشین های فراهوشمند از هوش انسانی پیشی میگیرند و میتواند چیزهایی را به خود آموزش دهد که از گسترهی درک انسانی خارج است. به همین دلیل میتوان آن را پدیدهای دانست که نیازمند فکر و پژوهش فراوان است.
طبق گزارش مؤسسهی پلانک، ماشین های فراهوشمند در حال حاضر هم تا حدی وجود دارد. منوئل کبرین، یکی از نویسندگان این مقاله میگوید: «حتی در حال حاضر هم ماشینهایی وجود دارند که مسائل مهمی را حل میکنند، بدون اینکه برنامهنویسان بدانند ماشینها چطور آن را یاد گرفتهاند. پس سؤال مهم این است که این مسیر کجا از کنترل انسانها خارج خواهد شد؟»
برای مثال، ریاضیدانان از یادگیری ماشین پیشرفته برای حل موارد استثنائی قوانین (اثباتهای) معروف استفاده میکنند. دانشمندان نیز با استفاده از یادگیری ماشین، مولکولهای داوطلب جدیدی را میسازند که در درمان بیماریها نقش دارند. در اکثر این پژوهشها تکنیک Brute Force تا حدی به کار برده میشود؛ به همین دلیل است که کامپیوترها میتوانند محاسبات فراوانی انجام دهند و مسائلی که حل آنها به چند دهه و حتی قرن نیاز داشت را در بازهی چند روزه یا چند ماهه حل کنند.
بهترین کتابها در حوزهی هوش مصنوعی
به خاطر حجم پردازشی سختافزارهای کامپیوتری، تشخیص کیفیت و کمیت بهینه همیشه آسان نیست. انسانها از هوش مصنوعی خودآموز میترسند؛ از سوی دیگر قوانین رباتیک ایساک اسیموف (و نسلهای مختلف آن) این باور را به وجود آوردهاند که ما میتوانیم خود را در مقابل یک هوش مصنوعی بدجنس محافظت کنیم. قوانین مذکور بیان میکنند که یک ربات برای انسانها خطرناک نخواهد بود و هیچگاه نمیتوان به آن دستور داد که به افراد آسیب برساند.
پژوهشگران معتقدند مشکل اینجاست که راهی برای محققسازی این قوانین نداریم. در پژوهش مذکور گفته شده است:
«ما معتقدیم محدودیتهای بنیادین و ذاتی محاسبات باعث میشود امکان محدودسازی و کنترل کامل اصلاً وجود نداشته باشد. فرض بر این است که ماشین های فراهوشمند برنامهای دارند که همهی برنامهها را در برمیگیرند (برنامههایی که ماشین تورینگ جهانی میتواند روی یک ورودی به بزرگی کل جهان اجرا کند). طبق همین مفروضه، اعمال محدودیت و کنترل نیازمند شبیهسازی چنین برنامهای است، امری که از نظر تئوری و عملی غیرممکن است.»
هوش مصنوعی فراهوشمند اساساً میتواند دانش بسیار زیادی بیاموزد، تا جایی که از دامنهی درک ما انسانها هم خارج شود. علاوه بر این، ضمانتی نیست که بتوانیم همهی تصمیمات هوش مصنوعی را تجزیه و تحلیل کنیم. زیرا هیچ شباهتی به زبانهای برنامهنویسی پراکنده و غیرمنظمی که توسط انسانها ساخته شده نخواهد داشت.
آنچه گفته شد شاید ترسناک به نظر برسد، اما در عین حال بسیار مهم است که دانشمندان این نکات را بدانند. اگر پژوهشگران این عقیده که الگوریتم failsafe (کاملاً امن) است را کنار بگذارند، میتوانند انرژی خود را صرف سایر برنامهها کرده و احتیاط بیشتری به خرج دهند.