جستجو
Generic filters
Filter by دسته‌ها
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان

«خطر وجودی» و ابَرهوش مصنوعی ؛ آیا نسل بشر منقرض می‌شود؟

هوش مصنوعی فوق‌العاده یا ابرهوشمندی یک عامل فرضی است که دارای هوشی بسیار بیشتر نسبت به درخشان‌ترین و بااستعدادترین انسان‌ها است. پس آیا می‌تواند باعث «خطر وجودی» شود؟

بر اساس مشهورترین نسخه فرضیه تکینگی تحت عنوان «انفجار هوش» یک عامل هوشی با قابلیت بروزرسانی‌شدن، درنهایت وارد یک «واکنش فراری» چرخه خودسازی می‌شود که در آن هر نسل جدید باهوش‌تر از قبلی است و نسل‌ها هم به‌سرعت ظهور می‌کنند. این تداوم ظهور نسل‎ها منجر به انفجار هوش می‎شود که در نتیجه آن ابرهوشمندی ایجاد شده از نظر کیفیت با فاصله عملکردی بهتر از هر نوع هوش انسانی دارد. مدل «انفجار هوش» آی جی گود پیش‎بینی کرده که ابرهوشمندی در آینده منجر به تکینگی فناوری خواهد شد.

نتایج چهار نظرسنجی که توسط محققان هوش مصنوعی و در سال‌های ۲۰۱۲ و ۲۰۱۳ توسط نیک بوستروم و وینسنت سی مولر انجام شده، نشان می‌دهد که می‌توان احتمال متوسط توسعه یک هوش عمومی مصنوعی یا AGI بین سال‌های ۲۰۴۰ تا ۲۰۵۰ را ۵۰ درصد تخمین زد.

ابرهوشمندی و خطر وجودی

 

چهره‌های سرشناسی مانند استیون هاوکینگ و ایلان ماسک، پیش از این نگرانی‌هایشان درباره هوش مصنوعی را مطرح کردند. به نظر آن‌ها هوش مصنوعی کامل یا هوش مصنوعی قدرتمند می‌تواند منجر به انقراض انسان شود. اما عواقب تکینگی و مزایای احتمالی آن یا آسیبی که به رقابت‌های انسانی می‌زند، این روزها شدیداً مورد بحث قرار گرفته و در کانون توجهات قرار دارد.

فیلسوف نیک بوستروم «خطر وجودی» را این‌طور توصیف کرده: شرایطی که در آن یک رویداد که منتهی به انقراض می‎شود، نه‌فقط با درصد کمی امکان‌پذیر، بلکه کاملاً محتمل است. به عقیده او هوش مصنوعی پیشرفته احتمالاً خطر وجودی را به همراه خواهد داشت.

به‌علاوه، فاکتور زمان مطرح است. شاید هوش مصنوعی فوق‌العاده تصمیم بگیرد خیلی سریع عمل کند، آن هم قبل از این‌که انسان شانسی برای واکنش نشان دادن و اقدام متقابل داشته باشد. یک هوش مصنوعی فوق‌العاده یا ابرهوشمندی شاید تصمیم بگیرد در اقدامی پیشگیرانه و به دلایلی که درکش برای ما انسان‌ها ممکن نباشد، کل بشریت را حذف کند.

حتی این احتمال هم وجود دارد که هوش مصنوعی فوق‌العاده جهان را استعمار کند. شاید این کار را به این دلیل انجام دهد که میزان محاسبات و پردازش‌های خودش را ارتقا دهد؛ یا بخواهد برای تولید ابررایانه‌های جدید، مواد اولیه تهیه کند.

در دنیای امروز که فقط هوش مصنوعی ضعیف وجود دارد، شاید باید چنین نگرانی‌هایی داشته باشیم. اما موضوع این است که هنوز نمی‌دانیم با توسعه هوش مصنوعی فوق‌العاده ایمن برای رسیدن به اهدافمان چقدر فاصله داریم و اصلاً آیا چنین اقدامی ممکن است یا خیر.

بنابراین بهتر است ما همین امروز برنامه‌ریزی برای ظهور یک هوش مصنوعی فوق‌العاده ایمن را شروع کنیم؛ مخصوصاً تا زمانی که هنوز توانش را داریم!

دیگر ویدیوهای هوش مصنوعی را در هوشیو تماشا کنید

مقاله ما چطور بود؟

میانگین امتیاز / ۵. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
Please enable JavaScript in your browser to complete this form.