
افسانه هوش مصنوعی کامل در برابر واقعیت سختی که با آن روبرو هستیم
میگویند هوش عمومی مصنوعی (AGI)، زمانی که به اوج خود برسد، کاملاً بینقص خواهد بود و هوشی آرمانی و ایده آل را نمایان میکند. این یک افسانه است که بسیاری آن را بدون تردید پذیرفتهاند، اما حقیقت این است که AGI تقریباً بهطور اجتنابناپذیری دارای نقصهای شناختی از جمله هوش انسانی خواهد بود. این خبر برای کسانی که انتظار دارند با رسیدن به AGI، به «بهشت هوش» دست پیدا کنیم، خبر ناخوشایندی است.
بیایید عمیقتر به این موضوع بپردازیم. این تحلیل درباره پیشرفتهای نوین هوش مصنوعی، (بخشی از مجموعه مقالات من در فوربس درباره آخرین تحولات این حوزه) است که در آن به بررسی پیچیدگیهای تأثیرگذار هوش مصنوعی میپردازم
تحقیقات پیرامون AGI و ASI
در حال حاضر تحقیقات گستردهای برای پیشرفت بیشتر هوش مصنوعی در جریان است. هدف کلی این است که یا به هوش عمومی مصنوعی (AGI) برسیم، یا حتی در سناریویی بلندپروازانهتر، هوش مصنوعی برتر (ASI) را محقق کنیم.
AGI یعنی هوش مصنوعی که از لحاظ فکری همسطح با انسان است و میتواند با هوش انسانی رقابت کند. همچنین ASI سطحی از هوش مصنوعی است که از هوش انسانی فراتر میرود و در بسیاری از جنبههای ممکن برتر از انسان خواهد بود. تصور میشود که ASI قادر خواهد بود در هر زمینهای از انسان پیشی بگیرد و تصمیماتی بگیرد که ما حتی نمیتوانیم درک کنیم.
در حال حاضر، متخصصان و افراد داخل صنعت هوش مصنوعی به دو گروه اصلی درباره تأثیرات احتمالی AGI و ASI تقسیم شدهاند. گروه اول بدبینان (Doomers) هستند. این افراد بر این باورند که AGI یا ASI میتواند منجر به نابودی بشریت شود.

برخی از آنها این احتمال را با اصطلاح «P(doom)» بیان میکنند که به معنای «احتمال نابودی» است. به زبان ساده، این گروه AGI را یک تهدید وجودی (Existential Risk) میدانند و معتقدند که ممکن است روزی هوش مصنوعی تصمیم بگیرد ما را از بین ببرد.
گروه دیگر شامل آندسته از افرادی است که بهاصطلاح «تسریعکنندگان هوش مصنوعی» (AI accelerationists) نامیده میشوند. آنها معمولاً بر این باورند که هوش مصنوعی پیشرفته، بهویژه هوش عمومی مصنوعی (AGI) یا هوش مصنوعی فوقالعاده (ASI)، مشکلات بشریت را حل خواهد کرد. درمان سرطان؟ بله، حتماً. غلبه بر گرسنگی جهانی؟ قطعاً.
ما شاهد دستاوردهای اقتصادی عظیمی خواهیم بود که مردم را از مشقتهای روزانه رها میکند. این نوع از هوش مصنوعی در کنار انسانها کار خواهد کرد و قصد ندارد بشریت را کنار بزند. چنین هوش مصنوعیای آخرین اختراعی خواهد بود که بشر انجام داده است، اما این موضوع خوب است، چرا که هوش مصنوعی چیزهایی را اختراع خواهد کرد که ما حتی قادر به تصور آنها نبودیم.
تمرکز بر هوش عمومی مصنوعی (AGI) به عنوان یک امکان
فعلاً دستیابی به ابر هوش مصنوعی (ASI) را کنار بگذاریم (صرفاً برای ادامه این بحث) و فقط بر امکان دستیابی به هوش عمومی مصنوعی (AGI) تمرکز کنیم. نگران نباشید، در بخش نتیجهگیری دوباره به ASI بازخواهم گشت.
تصور کنید که به AGI دست پیدا کنیم. مسیر رسیدن به آن ممکن است از طریق پیشرفتهای تدریجی در هوش مصنوعی معمولی باشد. مسیر دیگر این است که هوش مصنوعی بهصورت خودبهخودی در درون خودش چرخهای ایجاد کند و از هوش در حال رشد خود برای تقویت هوش بیشتر استفاده کند تا جایی که به نقطهای برسد که AGI محقق شود. این نوع انفجار هوش اغلب با عنوان «تکینگی هوش مصنوعی» (AI Singularity) شناخته میشود.
پس به هر طریقی که باشد، فرض کنیم به AGI برسیم. با این حال، توجه داشته باشید که هیچ تضمین قطعیای وجود ندارد که این اتفاق حتماً رخ خواهد داد. این احتمال وجود دارد که در نهایت به نقطهای برسیم که دیگر پیشرفتی نداشته باشیم و از دستیابی به AGI باز بمانیم. ممکن است به آن نزدیک شویم، اما در نهایت ناموفق بمانیم.
برای شفافسازی و صراحت بیشتر، هیچکس بهطور قطع نمیتواند بگوید که چه زمانی یا حتی آیا واقعاً به AGI خواهیم رسید یا نه.
نگاهی به ادعای «کمال هوش»
بسیاری از طرفداران هوش مصنوعی بر این باورند که AGI بهترین ویژگیهای هوش انسانی را خواهد داشت. از این نظر، میتوان آن را نوعی «هوش کامل» در نظر گرفت. اما منظور از «کمال» چیست؟ تصور رایج این است که AGI عاری از هرگونه نقص یا ضعف هوشمندانه خواهد بود.
این ادعا سؤالات مهمی را مطرح میکند. اولاً، هوش انسانی ذاتاً پر از نقصهای مختلفی از جمله سوگیریهای شناختی، خطاهای انسانی و رفتارهای غیرمنطقی است. شما خودتان میتوانید این موارد را بهوضوح در اطراف خود ببینید. دانشمندان علوم شناختی، روانشناسان، رفتارشناسان و سایر متخصصان این موضوعات را مطالعه کرده و مشکلات ناشی از آنها را بهخوبی مستند کردهاند.
ثانیاً، تا جایی که ما میدانیم، نقصهای مرتبط با هوش، بهطور جداییناپذیری در نقاط قوت آن تنیده شدهاند. هیچ راهکار عملی و مؤثری برای حذف ضعفهای هوش بدون از بین بردن نقاط قوت آن وجود ندارد، درحالیکه همچنان ساختاری منسجم و کارآمد باقی بماند. دیدگاه رایج این است که «یین و یانگ» (Yin and Yang) هوش از هم جداشدنی نیستند.

ثالثاً، یک نظریه کلی این است که اگر هوش بدون نقص بود، ما دیگر شاهد نوآوریها و جهشهای خلاقانهای که هماکنون تجربه میکنیم، نبودیم. استدلال این است که نقصهای هوش، در واقع خلاقیت را تحریک میکنند. اگر این نقصها از بین بروند، تنها چیزی که باقی میماند، نوعی هوش کسلکننده و بیروح خواهد بود. به بیان ساده، نقصهای هوش، یک اشکال نیستند، بلکه یک ویژگی هستند.
ساخت AGI به گونهای که بینقص باشد
یک استدلال مخالف در برابر تمام این اظهارات منفی درباره نقصهای هوش این است که هوش مصنوعی لزوماً نباید به سرنوشت هوش انسانی دچار شود.
منطق این دیدگاه چنین است: بله، هوش انسانی آشفته و پر از نقص است و در این هیچ شکی نیست، اما میتوان AGI را به گونهای طراحی کرد که گرفتار این مشکلات نشود. تنها کاری که باید انجام دهیم این است که نقاط ضعف هوش انسانی را شناسایی کنیم و هنگام ساخت هوش مصنوعی، آنها را برطرف نماییم. تمام شد و رفت!
اگرچه این حرف اطمینانبخش به نظر میرسد، اما شواهد چندانی وجود ندارد که نشان دهد چنین چیزی واقعاً قابل دستیابی است.
بررسی عمیقتر موضوع
هوش مصنوعی مولد (Generative AI) و مدلهای زبانی بزرگ (LLMs)، امروزه بر اساس الگوبرداری از نوشتههای انسانی ساخته میشوند. این نوع از هوش مصنوعی با اسکن اینترنت و مطالعه مقالات، داستانها، اشعار و سایر متون انسانی آموزش داده میشود. بر اساس حجم عظیم دادههای در دسترس، هوش مصنوعی بهصورت ریاضیاتی، الگوهایی از نحوه استفاده انسانها از زبان طبیعی استخراج کرده و ظاهری از تسلط زبانی را شبیهسازی میکند.
نکته اصلی این است که الگوهای مربوط به سوگیریهای انسانی، اشتباهات انسانی و سایر نقصهای مشابه، درون همین مجموعه دادههای گسترده وجود دارند. در نتیجه، این نقصها به بخشی جداییناپذیر از الگوسازیهای این سیستم تبدیل شده و در بافت محاسباتی آن تنیده میشوند. به عبارت دیگر، این نقصها در ساختار کلی این فناوری پخته شدهاند.
تلاشهایی برای مقابله با این جنبههای منفی در جریان است، اما تاکنون موفقیت چندانی نداشتهاند. یکی از روشهای پیشنهادی، حذف این نقصها از سیستم است، اما این کار آسانی نیست و بهاحتمال زیاد، هرگز بهطور کامل و جامع انجام نخواهد شد. در واقع سوال اینجاست که آیا واقعاً میتوان تمام نقصهای ممکن را شناسایی و حذف کرد؟ حتی اگر بتوان این کار را انجام داد، نتیجه نهایی چگونه خواهد بود؟
رویکردی دیگر برای رفع این مشکل، پنهان کردن نقصهاست. در این روش، نقصها همچنان در هسته داخلی سیستم وجود دارند، اما کاربر آنها را در سطح خروجی مشاهده نمیکند. مشکل اینجاست که این نقصها همچنان در عملکرد هوش مصنوعی تأثیرگذار خواهند بود و کاربران از تأثیرات نامحسوس آنها بیاطلاع میمانند.
وعدههایی که داده شده، اما عملی نشدهاند
پیشرفت بیوقفه به سمت AGI چندان تحت تأثیر نگرانیهای مربوط به نقصهای احتمالی آن قرار نگرفته است. یکی از پاسخهای رایج این است که «بالاخره یک راهی برای حل این مشکل پیدا خواهیم کرد. فقط ایمان داشته باشید!»
یکی از استدلالهای مطرح این است که خود AGI میتواند راهحلی برای این مشکل بیابد. به بیان دیگر، زمانی که به AGI دست یابیم، میتوانیم از آن بخواهیم که خودش را از تمامی نقصهای هوشمندی پاک کند. اینکه مهندسان و توسعهدهندگان نتوانستهاند این معما را حل کنند، مهم نیست. کافی است AGI را وادار کنیم که این کار را انجام دهد.
این استدلال در نگاه اول منطقی به نظر میرسد. AGI قرار است در سطح هوشمندترین انسانها باشد. شاید ما بهعنوان انسانهایی با هوش پراکنده در میان میلیاردها فرد، نتوانیم راهحلی پیدا کنیم، اما یک هوش مصنوعی یکپارچه و جمعی مانند AGI، احتمالاً خواهد توانست روشی برای حذف این نقصها بیابد.
علاوه بر این، برخلاف مشکلات سختافزاری (wetware) که در مغز بیولوژیکی انسانها وجود دارد، AGI میتواند صرفاً با تغییر بیتها و بایتها در نرمافزار و سختافزار خود، ساختار محاسباتیاش را تغییر دهد و بهسادگی از شر نقصهای هوشی خلاص شود.

آیا AGI واقعاً قادر به انجام این کار خواهد بود؟ هیچکس نمیداند. AGI ممکن است این کار را امتحان کند، اما در نهایت شکست بخورد. حتی ممکن است تا حدی در این مسیر پیش برود اما چنان دچار آشفتگی شود که عملکردش مختل گردد. از همه بدتر، AGI ممکن است بهطور ناقص این فرآیند را اجرا کند و در نتیجه، به این دلیل که ما اصرار داشتیم نقصهای هوشی آن را حذف کند، دست به اقداماتی بزند که پیش از این هرگز انتظار انجام آنها را نداشتیم.
خطرات و ناشناختههای بسیاری در این مسیر وجود دارد. برای مثال، آیا اصلا AGI تمایلی به حذف نقصهای خود خواهد داشت؟ این یک پرسش جالب است.
یک دیدگاه این است که AGI مانند یک ربات زندانی خواهد بود که بدون هیچ تردیدی فقط اوامر ما را اجرا میکند، دقیقاً همانطور که انسانها میخواهند. برخی دیگر معتقدند که AGI ماهیتی مستقل خواهد داشت و دارای نوعی ذهنیت و انگیزههای خاص خود خواهد شد، به این معنا که ممکن است «ترجیحات» و «باورهای» مختص خود را داشته باشد.
AGI بدون نقص میتواند فاجعهآمیز باشد
در این بحث یک فرض اساسی وجود دارد و آن هم این است که اگر به AGI بدون نقص دست یابیم، این سیستم همچنان همان AGI خواهد بود. همانطور که پیشتر اشاره شد، ما هیچ نمونهای از هوش انسانی بدون نقص نداریم که بتوانیم بر اساس آن این فرضیه را ارزیابی کنیم. در حال حاضر، تنها گمانهزنیهایی در مورد چنین چیزی وجود دارد.
اگر ما مستقیماً AGI را بدون نقص بسازیم، یا اگر AGI خودش این کار را برای ما انجام دهد یا حتی بهصورت خودمختار این تصمیم را بگیرد، نتیجه چه خواهد بود؟
یکی از دیدگاهها این است که AGI، بدون بار سنگین نقصهای فکری، تنها ویژگیهای مثبت هوش را در خود خواهد داشت، اما چنین کاری نیازمند یک مهارت فوقالعاده است؛ بهگونهای که بتوان نقصها را حذف کرد، بدون اینکه آسیبی به ساختار کلی AGI وارد شود.
باتوجهبه آنچه از هوش انسانی میدانیم، جداسازی ایمن این نقصها شاید غیرممکن باشد و در نتیجه، AGI دیگر AGI نخواهد بود. در عوض، ممکن است به نوعی دیگر از هوش مصنوعی تبدیل شود که دیگر ویژگیهای یک AGI واقعی را نداشته باشد. در این صورت، ممکن است دچار اشتباهی کلاسیک شویم، یعنی «بچه را با آب وان بیرون بیندازیم!» (اصطلاحی قدیمی که نشان از «کنار گذاشتن چیزهای مفید و باارزش بهخاطر چیزهای بیارزش» دارد).
در چنین شرایطی، خطرات وجودی (Existential Risks) بهشدت افزایش مییابد. نکتهی مهم اینجاست که اگر ما AGI را از نقصهای هوشمندی پاک کنیم، ممکن است این AGI بهجای تبدیل شدن به نیرویی خیرخواه، صرفاً بر اساس منطق خشک عمل کند و تصمیم بگیرد که انسانها را به بردگی بگیرد یا نابود کند.
ممکن است این ایده در نگاه اول غیرمنطقی به نظر برسد، زیرا فرض بر این است که حذف نقصها از AGI باید به این معنا باشد که این سیستم دیگر انگیزهای برای نابودی ما نخواهد داشت، اما یک استدلال مخالف میگوید که اگر در این فرایند، مفاهیمی مانند احساسات و همدلی را که شاید در دسته «نقصها» قرار داده شده بودند، حذف کنیم، آنگاه AGI صرفاً بر اساس دادهها و محاسبات منطقی تصمیم خواهد گرفت که آیا وجود بشریت ارزشی دارد یا خیر.
بهنوعی، ما «بهترین دوست خود» را به یک «فرانکشتاین» تبدیل کردهایم.
ASI هر چه باشد، همان خواهد شد.
در ابتدای این بحث قول دادم که در نهایت به مسئلهی ابرهوش مصنوعی (ASI – Artificial Superintelligence) نیز خواهم پرداخت. دلیل این که ASI باید جداگانه بررسی شود این است که هر بحثی در مورد ASI صرفاً در حد گمانهزنی است.
AGI دستکم بر پایهی نوعی از هوش بنا شده است که ما با آن آشنا هستیم، اما ASI چیزی فراتر از درک ذهنی ماست، زیرا یک «ابرهوش» خواهد بود. نکتهی کلیدی این است که ASI ممکن است دارای نقصهای هوشمندی باشد یا نباشد.
در واقع ممکن است نقص داشته باشد و از داشتن آن خوشحال باشد. شاید بتواند نقصهای خود را با تغییراتی در بیتها و بایتها از بین ببرد. شاید هم بدون هیچ نقصی متولد شود، اما در ادامه تصمیم بگیرد که برخی از این کاستیها را در خود ایجاد کند، چراکه ممکن است متوجه شود که این «نقایص» برای دستیابی به اهدافش مفید هستند. همهی گزینهها روی میز هستند.
یک نکتهی جالب دربارهی ASI این است که اگر ما به AGI دست پیدا کنیم و از آن برای ایجاد ASI استفاده نماییم، آیا آنچه در AGI وجود دارد، به ASI نیز منتقل خواهد شد؟ کمی در این مورد تأمل کنید.
این موضوع بدان معناست که اگر AGI دارای نقصهای هوشمندی باشد، به احتمال زیاد ASI نیز چنین نقصهایی را به ارث خواهد برد. البته ممکن است برخی استدلال کنند که حتی اگر AGI دارای نقص باشد، شاید بتواند راهی برای ساخت ASI بدون این مشکلات پیدا کند. همهی اینها در حد حدس و گمان است.
مسئولیت نهایی بر عهدهی چه کسی است؟
در نهایت، باید این موضوع را بهشدت جدی بگیریم و با تلاش مضاعف، تحقیقات پیرامون «همراستایی هوش مصنوعی با ارزشهای انسانی» (AI Alignment) را گسترش دهیم. هدف این است که AGI را بهگونهای طراحی کنیم که با ارزشهای انسانی همسو باشد یا حداقل، بهاندازهای پیشرفت کنیم که AGI بتواند این اصول را تشخیص داده و بر اساس آنها عمل کند.
در عین حال، باید این دیدگاه غلط را کنار بگذاریم که «وقتی به AGI رسیدیم، راهحلی برای این مشکلات پیدا خواهیم کرد». این تفکر خطرناکی است و مرا به یاد جملهی معروفی میاندازد که میگوید: «اگر برای چیزی برنامهریزی نکنی، برای شکست برنامهریزی کردهای.»
شکست در این زمینه میتواند به دو معنا باشد، یا ما هرگز به AGI دست پیدا نخواهیم کرد و یا به AGI خاصی خواهیم رسید که خارج از کنترل ما خواهد بود و نقصهای ذاتی آن میتواند منجر به نابودی ما شود.
در مورد AGI، همانطور که ضربالمثل قدیمی میگوید: «ما میخواهیم کیکمان را داشته باشیم و آن را هم بخوریم.» در همین راستا، هاولاک الیس (Havelock Ellis)، اندیشمند مشهور انگلیسی در عصر ویکتوریا، جملهی جالبی دارد که میگوید: «نبود نقص در زیبایی، خود یک نقص است.» جملهای که بهشدت ذهن را درگیر میکند!
به نظر میرسد که منطق این جمله میگوید: «اگر AGI فاقد هرگونه نقص هوشمندی باشد، در واقع، از همان ابتدا معیوب خواهد بود!» این ممکن است تفکری بدون نقص به نظر برسد یا شاید فقط یک بازی هوشمندانه ذهنی باشد!