تکینگی فناوری
اصول هوش مصنوعیتحلیل بازارهای هوش مصنوعیکارآفرینیکسب‌و‌کار

بررسی نظریه تکینگی فناوری: آیا هوش مصنوعی تهدیدی برای بشریت است؟

    0

    بیایید به موضوع تکینگی فناوری بپردازیم و بررسی کنیم که چرا برخی معتقدند هوش مصنوعی تهدیدی برای بشریت است و برای غلبه بر تهدیدات این فناوری چه باید بکنیم. برای این‌که هوش مصنوعی در آینده تهدیدی برای ما نباشد، باید در حال حاضر و در شرایطی که هنوز این فناوری قدرتمند نشده است، آن را کنترل کنیم. اگر اقدامات لازم در زمان حال انجام شود، در آینده می‌توانیم همان جامعه دموکراتیک خودمان را داشته باشیم که درنتیجه نوآوری بشر به دست آمده است.
    در دنیای امروز بسیاری از افراد به نظریه تکینگی فناوری اعتقاد دارند؛ یکی از خصوصیات تکینگی فناوری این است که انتخاب‌های انسان را محدود می‌کند، یا به طور خاص هر تصمیمی که توسط انسان گرفته شود، با اعمال و توانایی‌های هوش مصنوعی محدود می‌شود.
    تکینگی فناوری تنها بخشی از داستان‌های پیرامون هوش مصنوعی است. بخش دیگر ایده ابر‌هوشمندی یا توانایی‌های کامپیوترها برای تطبیق یا پیشی‌گرفتن از توانایی‌های شناختی انسان است. این دو مفهوم غالبا با هم ادغام می‌شوند، اما در این مقاله توضیح داده شده که چرا تکینگی فناوری بدون مقابله با ابر‌هوشمندی یک تهدید است.
    بزرگ‌ترین مشکل تکینگی فناوری این است که فضای مساله‌ای ایجاد می‌کند که هیچ انسانی نمی‌تواند آن را حل کند، به این دلیل که میلیاردها میلیارد راه‌حل وجود دارد که با هوش مصنوعی کشف می‌شود. این یک مشکل بزرگ است، چراکه هریک از این مشکلات می‌توانند توسط خود هوش مصنوعی انتخاب شوند، بعد توسط هوش مصنوعی راه‌حل آن ارائه شود و تاثیر زیادی روی جامعه انسانی بگذارد.
    سیاستمداران مطمئنا از این مشکلات آگاه هستند، اما ما باید نه‌‎تنها از تکینگی فناوری، بلکه از ابرهوشمندی هم بترسیم. فلسفه ابرهوشمندی بر این مبنا است که هوش مصنوعی همیشه تصمیم درست را می‌گیرد و در نتیجه می‌تواند قدرتی فراتر از انسان داشته باشد. اگر هوش مصنوعی بیش‌از اندازه هوشمند شود، غیرفعال کردن آن ممکن نیست؛ در نتیجه ابرهوشمندی یک ابزار در اختیار انسان نیست، بلکه تهدیدی است که خودش شرح وظایف خود را مشخص و روند تاریخ بشر را تعیین می‌کند.
    این نکته را نباید فراموش کنید که انسان به هیچ‌وجه نمی‌تواند تصمیماتی به درستی هوش مصنوعی بگیرد. همان‌طور که پیش‌تر در این مقاله آمده، هوش مصنوعی برای هر مشکل میلیاردها میلیارد راه‌حل دارد، به همین دلیل تصور این‌که بتوانیم به خوبی هوش مصنوعی تصمیم‌گیری کنیم، کاملا غیرمنطقی است.
    پس چه باید کرد؟ به نظر باید با پذیرش تکینگی فناوری مفهومی و فناوری شروع کرد و دیگر هوش مصنوعی را به چشم یک تهدید نبینیم. حتی اگر هوش مصنوعی تهدیدی هم برای بشریت باشد، تنها چیزی که نگرانی را بیشتر می‌کند بحث‌های انسان‌ها است و در شرایطی که چاره‌ای جز استفاده از هوش مصنوعی نداریم، این بحث‌ها بی‌مورد هستند. اگر قبول کنیم که خودمان در اتخاذ بهترین تصمیم‌ها ضعف داریم، هدف برای استفاده از هوش مصنوعی بسیار قوی خواهد شد.
    دوم؛ به عنوان یک جامعه، ما باید روی تحقیق و توسعه در این حوزه بیشتر سرمایه‌گذاری کنیم. دلیل این‌که هوش مصنوعی راه‌حل‌های زیادی برای مشکلات دارد این است که می‌تواند جستجویی بسیار موثرتر از انسان انجام دهد. هرچه هوش مصنوعی داده‌های بیشتری برای کار کردن در اختیار داشته باشد، تصمیمات بهتری خواهد گرفت. پس اگر می‌خواهیم هوش مصنوعی تصمیم‌های خوبی برای ما بگیرد، بهترین راه همکاری با دانشگاه‌ها است.
    سوم؛ باید مردم را آگاه کرد که از یادگیری ماشین به طور ایمن استفاده می‌شود. اگر هوش مصنوعی را مسئول عملکردش بدانیم، نگرانی‌های درباره ایمنی استفاده از آن ایجاد می‌شود. در واقع می‌توان هوش مصنوعی را طوری برنامه‌ریزی کرد که باور کنیم انسان است، در نتیجه اگر اجازه دهیم خودش تصمیم بگیرد و عمل کند، در صورتی که تصمیمات نادرست بگیرد به انسان‌های دیگر آسیب زده‌ایم.
    در صورت استفاده از این سه اصل، توانایی خوب تصمیم‌گرفتن بهبود خواهد یافت. البته فقط در صورتی این اتفاق خواهد افتاد که به جای تهدید به حساب آوردن فناوری، آن را به عنوان نوعی نوآوری بشناسیم. در صورتی که چنین هدفی داشته باشیم، دلیلی وجود ندارد که نتوانیم همان سیستمی که برای ما پیشرفت زیادی به همراه داشته را حفظ کنیم.
    در پایان باید توجه داشت که گذشته توسط انسان ساخته نشده، بلکه ترکیبی از تکامل و انتخاب طبیعی است و طبیعتا تنها راه بقا و سعادت بشر در دنیای مدرن امروز، نوآوری در فناوری، علم و صنعت است.

    ساخت قطعات الکترونیکی چاپیِ قابل بازیافت

    مقاله قبلی

    DeepONet: مدلی که عملگرهای خطی و غیرخطی را تقریب می‌زند

    مقاله بعدی

    شما همچنین ممکن است دوست داشته باشید

    نظرات

    پاسخ دهید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *