«خطر وجودی» و ابَرهوش مصنوعی ؛ آیا نسل بشر منقرض میشود؟
هوش مصنوعی فوقالعاده یا ابرهوشمندی یک عامل فرضی است که دارای هوشی بسیار بیشتر نسبت به درخشانترین و بااستعدادترین انسانها است. پس آیا میتواند باعث «خطر وجودی» شود؟
بر اساس مشهورترین نسخه فرضیه تکینگی تحت عنوان «انفجار هوش» یک عامل هوشی با قابلیت بروزرسانیشدن، درنهایت وارد یک «واکنش فراری» چرخه خودسازی میشود که در آن هر نسل جدید باهوشتر از قبلی است و نسلها هم بهسرعت ظهور میکنند. این تداوم ظهور نسلها منجر به انفجار هوش میشود که در نتیجه آن ابرهوشمندی ایجاد شده از نظر کیفیت با فاصله عملکردی بهتر از هر نوع هوش انسانی دارد. مدل «انفجار هوش» آی جی گود پیشبینی کرده که ابرهوشمندی در آینده منجر به تکینگی فناوری خواهد شد.
نتایج چهار نظرسنجی که توسط محققان هوش مصنوعی و در سالهای 2012 و 2013 توسط نیک بوستروم و وینسنت سی مولر انجام شده، نشان میدهد که میتوان احتمال متوسط توسعه یک هوش عمومی مصنوعی یا AGI بین سالهای 2040 تا 2050 را 50 درصد تخمین زد.
ابرهوشمندی و خطر وجودی
چهرههای سرشناسی مانند استیون هاوکینگ و ایلان ماسک، پیش از این نگرانیهایشان درباره هوش مصنوعی را مطرح کردند. به نظر آنها هوش مصنوعی کامل یا هوش مصنوعی قدرتمند میتواند منجر به انقراض انسان شود. اما عواقب تکینگی و مزایای احتمالی آن یا آسیبی که به رقابتهای انسانی میزند، این روزها شدیداً مورد بحث قرار گرفته و در کانون توجهات قرار دارد.
فیلسوف نیک بوستروم «خطر وجودی» را اینطور توصیف کرده: شرایطی که در آن یک رویداد که منتهی به انقراض میشود، نهفقط با درصد کمی امکانپذیر، بلکه کاملاً محتمل است. به عقیده او هوش مصنوعی پیشرفته احتمالاً خطر وجودی را به همراه خواهد داشت.
بهعلاوه، فاکتور زمان مطرح است. شاید هوش مصنوعی فوقالعاده تصمیم بگیرد خیلی سریع عمل کند، آن هم قبل از اینکه انسان شانسی برای واکنش نشان دادن و اقدام متقابل داشته باشد. یک هوش مصنوعی فوقالعاده یا ابرهوشمندی شاید تصمیم بگیرد در اقدامی پیشگیرانه و به دلایلی که درکش برای ما انسانها ممکن نباشد، کل بشریت را حذف کند.
حتی این احتمال هم وجود دارد که هوش مصنوعی فوقالعاده جهان را استعمار کند. شاید این کار را به این دلیل انجام دهد که میزان محاسبات و پردازشهای خودش را ارتقا دهد؛ یا بخواهد برای تولید ابررایانههای جدید، مواد اولیه تهیه کند.
در دنیای امروز که فقط هوش مصنوعی ضعیف وجود دارد، شاید باید چنین نگرانیهایی داشته باشیم. اما موضوع این است که هنوز نمیدانیم با توسعه هوش مصنوعی فوقالعاده ایمن برای رسیدن به اهدافمان چقدر فاصله داریم و اصلاً آیا چنین اقدامی ممکن است یا خیر.
بنابراین بهتر است ما همین امروز برنامهریزی برای ظهور یک هوش مصنوعی فوقالعاده ایمن را شروع کنیم؛ مخصوصاً تا زمانی که هنوز توانش را داریم!
دیگر ویدیوهای هوش مصنوعی را در هوشیو تماشا کنید