رسانه‌هاویدیو

«خطر وجودی» و ابَرهوش مصنوعی ؛ آیا نسل بشر منقرض می‌شود؟

    0

    هوش مصنوعی فوق‌العاده یا ابرهوشمندی یک عامل فرضی است که دارای هوشی بسیار بیشتر نسبت به درخشان‌ترین و بااستعدادترین انسان‌ها است. پس آیا می‌تواند باعث «خطر وجودی» شود؟

    بر اساس مشهورترین نسخه فرضیه تکینگی تحت عنوان «انفجار هوش» یک عامل هوشی با قابلیت بروزرسانی‌شدن، درنهایت وارد یک «واکنش فراری» چرخه خودسازی می‌شود که در آن هر نسل جدید باهوش‌تر از قبلی است و نسل‌ها هم به‌سرعت ظهور می‌کنند. این تداوم ظهور نسل‎ها منجر به انفجار هوش می‎شود که در نتیجه آن ابرهوشمندی ایجاد شده از نظر کیفیت با فاصله عملکردی بهتر از هر نوع هوش انسانی دارد. مدل «انفجار هوش» آی جی گود پیش‎بینی کرده که ابرهوشمندی در آینده منجر به تکینگی فناوری خواهد شد.

    نتایج چهار نظرسنجی که توسط محققان هوش مصنوعی و در سال‌های ۲۰۱۲ و ۲۰۱۳ توسط نیک بوستروم و وینسنت سی مولر انجام شده، نشان می‌دهد که می‌توان احتمال متوسط توسعه یک هوش عمومی مصنوعی یا AGI بین سال‌های ۲۰۴۰ تا ۲۰۵۰ را ۵۰ درصد تخمین زد.

    ابرهوشمندی و خطر وجودی

     

    چهره‌های سرشناسی مانند استیون هاوکینگ و ایلان ماسک، پیش از این نگرانی‌هایشان درباره هوش مصنوعی را مطرح کردند. به نظر آن‌ها هوش مصنوعی کامل یا هوش مصنوعی قدرتمند می‌تواند منجر به انقراض انسان شود. اما عواقب تکینگی و مزایای احتمالی آن یا آسیبی که به رقابت‌های انسانی می‌زند، این روزها شدیداً مورد بحث قرار گرفته و در کانون توجهات قرار دارد.

    فیلسوف نیک بوستروم «خطر وجودی» را این‌طور توصیف کرده: شرایطی که در آن یک رویداد که منتهی به انقراض می‎شود، نه‌فقط با درصد کمی امکان‌پذیر، بلکه کاملاً محتمل است. به عقیده او هوش مصنوعی پیشرفته احتمالاً خطر وجودی را به همراه خواهد داشت.

    به‌علاوه، فاکتور زمان مطرح است. شاید هوش مصنوعی فوق‌العاده تصمیم بگیرد خیلی سریع عمل کند، آن هم قبل از این‌که انسان شانسی برای واکنش نشان دادن و اقدام متقابل داشته باشد. یک هوش مصنوعی فوق‌العاده یا ابرهوشمندی شاید تصمیم بگیرد در اقدامی پیشگیرانه و به دلایلی که درکش برای ما انسان‌ها ممکن نباشد، کل بشریت را حذف کند.

    حتی این احتمال هم وجود دارد که هوش مصنوعی فوق‌العاده جهان را استعمار کند. شاید این کار را به این دلیل انجام دهد که میزان محاسبات و پردازش‌های خودش را ارتقا دهد؛ یا بخواهد برای تولید ابررایانه‌های جدید، مواد اولیه تهیه کند.

    در دنیای امروز که فقط هوش مصنوعی ضعیف وجود دارد، شاید باید چنین نگرانی‌هایی داشته باشیم. اما موضوع این است که هنوز نمی‌دانیم با توسعه هوش مصنوعی فوق‌العاده ایمن برای رسیدن به اهدافمان چقدر فاصله داریم و اصلاً آیا چنین اقدامی ممکن است یا خیر.

    بنابراین بهتر است ما همین امروز برنامه‌ریزی برای ظهور یک هوش مصنوعی فوق‌العاده ایمن را شروع کنیم؛ مخصوصاً تا زمانی که هنوز توانش را داریم!

    دیگر ویدیوهای هوش مصنوعی را در هوشیو تماشا کنید

    الگوریتم AlphaFold: راهکاری برای چالش ۵۰ ساله‌ی زیست‌شناسی

    مقاله قبلی

    نظرسنجی‌ها درباره حضور زنان در حوزه‌ علم داده و هوش مصنوعی

    مقاله بعدی

    شما همچنین ممکن است دوست داشته باشید

    بیشتر در رسانه‌ها

    نظرات

    پاسخ دهید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *