Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 افسانه هوش مصنوعی کامل در برابر واقعیت سختی که با آن روبرو هستیم

افسانه هوش مصنوعی کامل در برابر واقعیت سختی که با آن روبرو هستیم

زمان مطالعه: 9 دقیقه

می‌گویند هوش عمومی مصنوعی (AGI)، زمانی که به اوج خود برسد، کاملاً بی‌نقص خواهد بود و هوشی آرمانی و ایده آل را نمایان می‌کند. این یک افسانه است که بسیاری آن را بدون تردید پذیرفته‌اند، اما حقیقت این است که AGI تقریباً به‌طور اجتناب‌ناپذیری دارای نقص‌های شناختی از جمله هوش انسانی خواهد بود. این خبر برای کسانی که انتظار دارند با رسیدن به AGI، به «بهشت هوش» دست پیدا کنیم، خبر ناخوشایندی است.

بیایید عمیق‌تر به این موضوع بپردازیم. این تحلیل درباره پیشرفت‌های نوین هوش مصنوعی، (بخشی از مجموعه مقالات من در فوربس درباره آخرین تحولات این حوزه) است که در آن به بررسی پیچیدگی‌های تأثیرگذار هوش مصنوعی می‌پردازم

تحقیقات پیرامون AGI و ASI

در حال حاضر تحقیقات گسترده‌ای برای پیشرفت بیشتر هوش مصنوعی در جریان است. هدف کلی این است که یا به هوش عمومی مصنوعی (AGI) برسیم، یا حتی در سناریویی بلندپروازانه‌تر، هوش مصنوعی برتر (ASI) را محقق کنیم.

AGI یعنی هوش مصنوعی که از لحاظ فکری هم‌سطح با انسان است و می‌تواند با هوش انسانی رقابت کند. همچنین ASI سطحی از هوش مصنوعی است که از هوش انسانی فراتر می‌رود و در بسیاری از جنبه‌های ممکن برتر از انسان خواهد بود. تصور می‌شود که ASI قادر خواهد بود در هر زمینه‌ای از انسان پیشی بگیرد و تصمیماتی بگیرد که ما حتی نمی‌توانیم درک کنیم.

در حال حاضر، متخصصان و افراد داخل صنعت هوش مصنوعی به دو گروه اصلی درباره تأثیرات احتمالی AGI و ASI تقسیم شده‌اند. گروه اول بدبینان (Doomers) هستند. این افراد بر این باورند که AGI یا ASI می‌تواند منجر به نابودی بشریت شود.

برخی از آن‌ها این احتمال را با اصطلاح «P(doom)» بیان می‌کنند که به معنای «احتمال نابودی» است. به زبان ساده، این گروه AGI را یک تهدید وجودی (Existential Risk) می‌دانند و معتقدند که ممکن است روزی هوش مصنوعی تصمیم بگیرد ما را از بین ببرد.

گروه دیگر شامل آن‌دسته از افرادی است که به‌اصطلاح «تسریع‌کنندگان هوش مصنوعی» (AI accelerationists) نامیده می‌شوند. آن‌ها معمولاً بر این باورند که هوش مصنوعی پیشرفته، به‌ویژه هوش عمومی مصنوعی (AGI) یا هوش مصنوعی فوق‌العاده (ASI)، مشکلات بشریت را حل خواهد کرد. درمان سرطان؟ بله، حتماً. غلبه بر گرسنگی جهانی؟ قطعاً.

ما شاهد دستاوردهای اقتصادی عظیمی خواهیم بود که مردم را از مشقت‌های روزانه رها می‌کند. این نوع از هوش مصنوعی در کنار انسان‌ها کار خواهد کرد و قصد ندارد بشریت را کنار بزند. چنین هوش مصنوعی‌ای آخرین اختراعی خواهد بود که بشر انجام داده است، اما این موضوع خوب است، چرا که هوش مصنوعی چیزهایی را اختراع خواهد کرد که ما حتی قادر به تصور آن‌ها نبودیم.

تمرکز بر هوش عمومی مصنوعی (AGI) به عنوان یک امکان

فعلاً دست‌یابی به ابر هوش مصنوعی (ASI) را کنار بگذاریم (صرفاً برای ادامه این بحث) و فقط بر امکان دستیابی به هوش عمومی مصنوعی (AGI) تمرکز کنیم. نگران نباشید، در بخش نتیجه‌گیری دوباره به ASI بازخواهم گشت.

تصور کنید که به AGI دست پیدا کنیم. مسیر رسیدن به آن ممکن است از طریق پیشرفت‌های تدریجی در هوش مصنوعی معمولی باشد. مسیر دیگر این است که هوش مصنوعی به‌صورت خودبه‌خودی در درون خودش چرخه‌ای ایجاد کند و از هوش در حال رشد خود برای تقویت هوش بیشتر استفاده کند تا جایی که به نقطه‌ای برسد که AGI محقق شود. این نوع انفجار هوش اغلب با عنوان «تکینگی هوش مصنوعی» (AI Singularity) شناخته می‌شود.

پس به هر طریقی که باشد، فرض کنیم به AGI برسیم. با این حال، توجه داشته باشید که هیچ تضمین قطعی‌ای وجود ندارد که این اتفاق حتماً رخ خواهد داد. این احتمال وجود دارد که در نهایت به نقطه‌ای برسیم که دیگر پیشرفتی نداشته باشیم و از دستیابی به AGI باز بمانیم. ممکن است به آن نزدیک شویم، اما در نهایت ناموفق بمانیم.

برای شفاف‌سازی و صراحت بیشتر، هیچ‌کس به‌طور قطع نمی‌تواند بگوید که چه زمانی یا حتی آیا واقعاً به AGI خواهیم رسید یا نه.

نگاهی به ادعای «کمال هوش»

بسیاری از طرفداران هوش مصنوعی بر این باورند که AGI بهترین ویژگی‌های هوش انسانی را خواهد داشت. از این نظر، می‌توان آن را نوعی «هوش کامل» در نظر گرفت. اما منظور از «کمال» چیست؟ تصور رایج این است که AGI عاری از هرگونه نقص یا ضعف هوشمندانه خواهد بود.

این ادعا سؤالات مهمی را مطرح می‌کند. اولاً، هوش انسانی ذاتاً پر از نقص‌های مختلفی از جمله سوگیری‌های شناختی، خطاهای انسانی و رفتارهای غیرمنطقی است. شما خودتان می‌توانید این موارد را به‌وضوح در اطراف خود ببینید. دانشمندان علوم شناختی، روانشناسان، رفتارشناسان و سایر متخصصان این موضوعات را مطالعه کرده و مشکلات ناشی از آن‌ها را به‌خوبی مستند کرده‌اند.

ثانیاً، تا جایی که ما می‌دانیم، نقص‌های مرتبط با هوش، به‌طور جدایی‌ناپذیری در نقاط قوت آن تنیده شده‌اند. هیچ راهکار عملی و مؤثری برای حذف ضعف‌های هوش بدون از بین بردن نقاط قوت آن وجود ندارد، درحالی‌که همچنان ساختاری منسجم و کارآمد باقی بماند. دیدگاه رایج این است که «یین و یانگ» (Yin and Yang) هوش از هم جداشدنی نیستند.

ثالثاً، یک نظریه کلی این است که اگر هوش بدون نقص بود، ما دیگر شاهد نوآوری‌ها و جهش‌های خلاقانه‌ای که هم‌اکنون تجربه می‌کنیم، نبودیم. استدلال این است که نقص‌های هوش، در واقع خلاقیت را تحریک می‌کنند. اگر این نقص‌ها از بین بروند، تنها چیزی که باقی می‌ماند، نوعی هوش کسل‌کننده و بی‌روح خواهد بود. به بیان ساده، نقص‌های هوش، یک اشکال نیستند، بلکه یک ویژگی هستند.

ساخت AGI به گونه‌ای که بی‌نقص باشد

یک استدلال مخالف در برابر تمام این اظهارات منفی درباره نقص‌های هوش این است که هوش مصنوعی لزوماً نباید به سرنوشت هوش انسانی دچار شود.

منطق این دیدگاه چنین است: بله، هوش انسانی آشفته و پر از نقص است و در این هیچ شکی نیست، اما می‌توان AGI را به گونه‌ای طراحی کرد که گرفتار این مشکلات نشود. تنها کاری که باید انجام دهیم این است که نقاط ضعف هوش انسانی را شناسایی کنیم و هنگام ساخت هوش مصنوعی، آن‌ها را برطرف نماییم. تمام شد و رفت!

اگرچه این حرف اطمینان‌بخش به نظر می‌رسد، اما شواهد چندانی وجود ندارد که نشان دهد چنین چیزی واقعاً قابل دستیابی است.

بررسی عمیق‌تر موضوع

هوش مصنوعی مولد (Generative AI) و مدل‌های زبانی بزرگ (LLMs)، امروزه بر اساس الگوبرداری از نوشته‌های انسانی ساخته می‌شوند. این نوع از هوش مصنوعی با اسکن اینترنت و مطالعه مقالات، داستان‌ها، اشعار و سایر متون انسانی آموزش داده می‌شود. بر اساس حجم عظیم داده‌های در دسترس، هوش مصنوعی به‌صورت ریاضیاتی، الگوهایی از نحوه استفاده انسان‌ها از زبان طبیعی استخراج کرده و ظاهری از تسلط زبانی را شبیه‌سازی می‌کند.

نکته اصلی این است که الگوهای مربوط به سوگیری‌های انسانی، اشتباهات انسانی و سایر نقص‌های مشابه، درون همین مجموعه داده‌های گسترده وجود دارند. در نتیجه، این نقص‌ها به بخشی جدایی‌ناپذیر از الگوسازی‌های این سیستم تبدیل شده و در بافت محاسباتی آن تنیده می‌شوند. به عبارت دیگر، این نقص‌ها در ساختار کلی این فناوری پخته شده‌اند.

تلاش‌هایی برای مقابله با این جنبه‌های منفی در جریان است، اما تاکنون موفقیت چندانی نداشته‌اند. یکی از روش‌های پیشنهادی، حذف این نقص‌ها از سیستم است، اما این کار آسانی نیست و به‌احتمال زیاد، هرگز به‌طور کامل و جامع انجام نخواهد شد. در واقع سوال اینجاست که آیا واقعاً می‌توان تمام نقص‌های ممکن را شناسایی و حذف کرد؟ حتی اگر بتوان این کار را انجام داد، نتیجه نهایی چگونه خواهد بود؟

رویکردی دیگر برای رفع این مشکل، پنهان کردن نقص‌هاست. در این روش، نقص‌ها همچنان در هسته داخلی سیستم وجود دارند، اما کاربر آن‌ها را در سطح خروجی مشاهده نمی‌کند. مشکل اینجاست که این نقص‌ها همچنان در عملکرد هوش مصنوعی تأثیرگذار خواهند بود و کاربران از تأثیرات نامحسوس آن‌ها بی‌اطلاع می‌مانند.

وعده‌هایی که داده شده، اما عملی نشده‌اند

پیشرفت بی‌وقفه به سمت AGI چندان تحت تأثیر نگرانی‌های مربوط به نقص‌های احتمالی آن قرار نگرفته است. یکی از پاسخ‌های رایج این است که «بالاخره یک راهی برای حل این مشکل پیدا خواهیم کرد. فقط ایمان داشته باشید!»

یکی از استدلال‌های مطرح این است که خود AGI می‌تواند راه‌حلی برای این مشکل بیابد. به بیان دیگر، زمانی که به AGI دست یابیم، می‌توانیم از آن بخواهیم که خودش را از تمامی نقص‌های هوشمندی پاک کند. این‌که مهندسان و توسعه‌دهندگان نتوانسته‌اند این معما را حل کنند، مهم نیست. کافی است AGI را وادار کنیم که این کار را انجام دهد.

این استدلال در نگاه اول منطقی به نظر می‌رسد. AGI قرار است در سطح هوشمندترین انسان‌ها باشد. شاید ما به‌عنوان انسان‌هایی با هوش پراکنده در میان میلیاردها فرد، نتوانیم راه‌حلی پیدا کنیم، اما یک هوش مصنوعی یکپارچه و جمعی مانند AGI، احتمالاً خواهد توانست روشی برای حذف این نقص‌ها بیابد.

علاوه بر این، برخلاف مشکلات سخت‌افزاری (wetware) که در مغز بیولوژیکی انسان‌ها وجود دارد، AGI می‌تواند صرفاً با تغییر بیت‌ها و بایت‌ها در نرم‌افزار و سخت‌افزار خود، ساختار محاسباتی‌اش را تغییر دهد و به‌سادگی از شر نقص‌های هوشی خلاص شود.

xr:d:DAFj1tLp14E:1215,j:7967278584016079964,t:23113016

آیا AGI واقعاً قادر به انجام این کار خواهد بود؟ هیچ‌کس نمی‌داند. AGI ممکن است این کار را امتحان کند، اما در نهایت شکست بخورد. حتی ممکن است تا حدی در این مسیر پیش برود اما چنان دچار آشفتگی شود که عملکردش مختل گردد. از همه بدتر، AGI ممکن است به‌طور ناقص این فرآیند را اجرا کند و در نتیجه، به این دلیل که ما اصرار داشتیم نقص‌های هوشی آن را حذف کند، دست به اقداماتی بزند که پیش از این هرگز انتظار انجام آن‌ها را نداشتیم.

خطرات و ناشناخته‌های بسیاری در این مسیر وجود دارد. برای مثال، آیا اصلا AGI تمایلی به حذف نقص‌های خود خواهد داشت؟ این یک پرسش جالب است.

یک دیدگاه این است که AGI مانند یک ربات زندانی خواهد بود که بدون هیچ تردیدی فقط اوامر ما را اجرا می‌کند، دقیقاً همان‌طور که انسان‌ها می‌خواهند. برخی دیگر معتقدند که AGI ماهیتی مستقل خواهد داشت و دارای نوعی ذهنیت و انگیزه‌های خاص خود خواهد شد، به این معنا که ممکن است «ترجیحات» و «باورهای» مختص خود را داشته باشد.

AGI بدون نقص می‌تواند فاجعه‌آمیز باشد

در این بحث یک فرض اساسی وجود دارد و آن هم این است که اگر به AGI بدون نقص دست یابیم، این سیستم همچنان همان AGI خواهد بود. همان‌طور که پیش‌تر اشاره شد، ما هیچ نمونه‌ای از هوش انسانی بدون نقص نداریم که بتوانیم بر اساس آن این فرضیه را ارزیابی کنیم. در حال حاضر، تنها گمانه‌زنی‌هایی در مورد چنین چیزی وجود دارد.

اگر ما مستقیماً AGI را بدون نقص بسازیم، یا اگر AGI خودش این کار را برای ما انجام دهد یا حتی به‌صورت خودمختار این تصمیم را بگیرد، نتیجه چه خواهد بود؟

یکی از دیدگاه‌ها این است که AGI، بدون بار سنگین نقص‌های فکری، تنها ویژگی‌های مثبت هوش را در خود خواهد داشت، اما چنین کاری نیازمند یک مهارت فوق‌العاده است؛ به‌گونه‌ای که بتوان نقص‌ها را حذف کرد، بدون اینکه آسیبی به ساختار کلی AGI وارد شود.

باتوجه‌به آنچه از هوش انسانی می‌دانیم، جداسازی ایمن این نقص‌ها شاید غیرممکن باشد و در نتیجه، AGI دیگر AGI نخواهد بود. در عوض، ممکن است به نوعی دیگر از هوش مصنوعی تبدیل شود که دیگر ویژگی‌های یک AGI واقعی را نداشته باشد. در این صورت، ممکن است دچار اشتباهی کلاسیک شویم، یعنی «بچه را با آب وان بیرون بیندازیم!» (اصطلاحی قدیمی که نشان از «کنار گذاشتن چیزهای مفید و باارزش به‌خاطر چیزهای بی‌ارزش» دارد).

در چنین شرایطی، خطرات وجودی (Existential Risks) به‌شدت افزایش می‌یابد. نکته‌ی مهم اینجاست که اگر ما AGI را از نقص‌های هوشمندی پاک کنیم، ممکن است این AGI به‌جای تبدیل شدن به نیرویی خیرخواه، صرفاً بر اساس منطق خشک عمل کند و تصمیم بگیرد که انسان‌ها را به بردگی بگیرد یا نابود کند.

ممکن است این ایده در نگاه اول غیرمنطقی به نظر برسد، زیرا فرض بر این است که حذف نقص‌ها از AGI باید به این معنا باشد که این سیستم دیگر انگیزه‌ای برای نابودی ما نخواهد داشت، اما یک استدلال مخالف می‌گوید که اگر در این فرایند، مفاهیمی مانند احساسات و همدلی را که شاید در دسته «نقص‌ها» قرار داده شده بودند، حذف کنیم، آن‌گاه AGI صرفاً بر اساس داده‌ها و محاسبات منطقی تصمیم خواهد گرفت که آیا وجود بشریت ارزشی دارد یا خیر.

به‌نوعی، ما «بهترین دوست خود» را به یک «فرانکشتاین» تبدیل کرده‌ایم.

ASI هر چه باشد، همان خواهد شد.

در ابتدای این بحث قول دادم که در نهایت به مسئله‌ی ابرهوش مصنوعی (ASI – Artificial Superintelligence) نیز خواهم پرداخت. دلیل این که ASI باید جداگانه بررسی شود این است که هر بحثی در مورد ASI صرفاً در حد گمانه‌زنی است.

AGI دست‌کم بر پایه‌ی نوعی از هوش بنا شده است که ما با آن آشنا هستیم، اما ASI چیزی فراتر از درک ذهنی ماست، زیرا یک «ابرهوش» خواهد بود. نکته‌ی کلیدی این است که ASI ممکن است دارای نقص‌های هوشمندی باشد یا نباشد.

در واقع ممکن است نقص داشته باشد و از داشتن آن خوشحال باشد. شاید بتواند نقص‌های خود را با تغییراتی در بیت‌ها و بایت‌ها از بین ببرد. شاید هم بدون هیچ نقصی متولد شود، اما در ادامه تصمیم بگیرد که برخی از این کاستی‌ها را در خود ایجاد کند، چراکه ممکن است متوجه شود که این «نقایص» برای دستیابی به اهدافش مفید هستند. همه‌ی گزینه‌ها روی میز هستند.

یک نکته‌ی جالب درباره‌ی ASI این است که اگر ما به AGI دست پیدا کنیم و از آن برای ایجاد ASI استفاده نماییم، آیا آنچه در AGI وجود دارد، به ASI نیز منتقل خواهد شد؟ کمی در این مورد تأمل کنید.

این موضوع بدان معناست که اگر AGI دارای نقص‌های هوشمندی باشد، به احتمال زیاد ASI نیز چنین نقص‌هایی را به ارث خواهد برد. البته ممکن است برخی استدلال کنند که حتی اگر AGI دارای نقص باشد، شاید بتواند راهی برای ساخت ASI بدون این مشکلات پیدا کند. همه‌ی اینها در حد حدس و گمان است.

مسئولیت نهایی بر عهده‌ی چه کسی است؟

در نهایت، باید این موضوع را به‌شدت جدی بگیریم و با تلاش مضاعف، تحقیقات پیرامون «هم‌راستایی هوش مصنوعی با ارزش‌های انسانی» (AI Alignment) را گسترش دهیم. هدف این است که AGI را به‌گونه‌ای طراحی کنیم که با ارزش‌های انسانی همسو باشد یا حداقل، به‌اندازه‌ای پیشرفت کنیم که AGI بتواند این اصول را تشخیص داده و بر اساس آن‌ها عمل کند.

در عین حال، باید این دیدگاه غلط را کنار بگذاریم که «وقتی به AGI رسیدیم، راه‌حلی برای این مشکلات پیدا خواهیم کرد». این تفکر خطرناکی است و مرا به یاد جمله‌ی معروفی می‌اندازد که می‌گوید: «اگر برای چیزی برنامه‌ریزی نکنی، برای شکست برنامه‌ریزی کرده‌ای.»

شکست در این زمینه می‌تواند به دو معنا باشد، یا ما هرگز به AGI دست پیدا نخواهیم کرد و یا به AGI‌ خاصی خواهیم رسید که خارج از کنترل ما خواهد بود و نقص‌های ذاتی آن می‌تواند منجر به نابودی ما شود.

در مورد AGI، همان‌طور که ضرب‌المثل قدیمی می‌گوید: «ما می‌خواهیم کیک‌مان را داشته باشیم و آن را هم بخوریم.» در همین راستا، هاولاک الیس (Havelock Ellis)، اندیشمند مشهور انگلیسی در عصر ویکتوریا، جمله‌ی جالبی دارد که می‌گوید: «نبود نقص در زیبایی، خود یک نقص است.» جمله‌ای که به‌شدت ذهن را درگیر می‌کند!

به نظر می‌رسد که منطق این جمله می‌گوید: «اگر AGI فاقد هرگونه نقص هوشمندی باشد، در واقع، از همان ابتدا معیوب خواهد بود!» این ممکن است تفکری بدون نقص به نظر برسد یا شاید فقط یک بازی هوشمندانه‌ ذهنی باشد!

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]