Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله

«خطر وجودی» و ابَرهوش مصنوعی ؛ آیا نسل بشر منقرض می‌شود؟

زمان مطالعه: 2 دقیقه

هوش مصنوعی فوق‌العاده یا ابرهوشمندی یک عامل فرضی است که دارای هوشی بسیار بیشتر نسبت به درخشان‌ترین و بااستعدادترین انسان‌ها است. پس آیا می‌تواند باعث «خطر وجودی» شود؟

بر اساس مشهورترین نسخه فرضیه تکینگی تحت عنوان «انفجار هوش» یک عامل هوشی با قابلیت بروزرسانی‌شدن، درنهایت وارد یک «واکنش فراری» چرخه خودسازی می‌شود که در آن هر نسل جدید باهوش‌تر از قبلی است و نسل‌ها هم به‌سرعت ظهور می‌کنند. این تداوم ظهور نسل‎ها منجر به انفجار هوش می‎شود که در نتیجه آن ابرهوشمندی ایجاد شده از نظر کیفیت با فاصله عملکردی بهتر از هر نوع هوش انسانی دارد. مدل «انفجار هوش» آی جی گود پیش‎بینی کرده که ابرهوشمندی در آینده منجر به تکینگی فناوری خواهد شد.

نتایج چهار نظرسنجی که توسط محققان هوش مصنوعی و در سال‌های 2012 و 2013 توسط نیک بوستروم و وینسنت سی مولر انجام شده، نشان می‌دهد که می‌توان احتمال متوسط توسعه یک هوش عمومی مصنوعی یا AGI بین سال‌های 2040 تا 2050 را 50 درصد تخمین زد.

ابرهوشمندی و خطر وجودی

 

چهره‌های سرشناسی مانند استیون هاوکینگ و ایلان ماسک، پیش از این نگرانی‌هایشان درباره هوش مصنوعی را مطرح کردند. به نظر آن‌ها هوش مصنوعی کامل یا هوش مصنوعی قدرتمند می‌تواند منجر به انقراض انسان شود. اما عواقب تکینگی و مزایای احتمالی آن یا آسیبی که به رقابت‌های انسانی می‌زند، این روزها شدیداً مورد بحث قرار گرفته و در کانون توجهات قرار دارد.

فیلسوف نیک بوستروم «خطر وجودی» را این‌طور توصیف کرده: شرایطی که در آن یک رویداد که منتهی به انقراض می‎شود، نه‌فقط با درصد کمی امکان‌پذیر، بلکه کاملاً محتمل است. به عقیده او هوش مصنوعی پیشرفته احتمالاً خطر وجودی را به همراه خواهد داشت.

به‌علاوه، فاکتور زمان مطرح است. شاید هوش مصنوعی فوق‌العاده تصمیم بگیرد خیلی سریع عمل کند، آن هم قبل از این‌که انسان شانسی برای واکنش نشان دادن و اقدام متقابل داشته باشد. یک هوش مصنوعی فوق‌العاده یا ابرهوشمندی شاید تصمیم بگیرد در اقدامی پیشگیرانه و به دلایلی که درکش برای ما انسان‌ها ممکن نباشد، کل بشریت را حذف کند.

حتی این احتمال هم وجود دارد که هوش مصنوعی فوق‌العاده جهان را استعمار کند. شاید این کار را به این دلیل انجام دهد که میزان محاسبات و پردازش‌های خودش را ارتقا دهد؛ یا بخواهد برای تولید ابررایانه‌های جدید، مواد اولیه تهیه کند.

در دنیای امروز که فقط هوش مصنوعی ضعیف وجود دارد، شاید باید چنین نگرانی‌هایی داشته باشیم. اما موضوع این است که هنوز نمی‌دانیم با توسعه هوش مصنوعی فوق‌العاده ایمن برای رسیدن به اهدافمان چقدر فاصله داریم و اصلاً آیا چنین اقدامی ممکن است یا خیر.

بنابراین بهتر است ما همین امروز برنامه‌ریزی برای ظهور یک هوش مصنوعی فوق‌العاده ایمن را شروع کنیم؛ مخصوصاً تا زمانی که هنوز توانش را داریم!

دیگر ویدیوهای هوش مصنوعی را در هوشیو تماشا کنید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]