ویژهنامه هوش مصنوعی ساینتیفیک امریکن
در جستوجوی روحی در ماشین
نشانههای هوش جامع مصنوعی روزبهروز پررنگتر میشوند. اما آیا میتوان بر سر تعریف آن به توافق رسید؟
برای شرکتهایی مانند OpenAI که ChatGPT را ساخته، هوش جامع مصنوعی یا AGI هدف نهایی پژوهشهای یادگیری ماشین و هوش مصنوعی است. اما معیار یک ماشین هوشمند جامع چیست؟ در سال ۱۹۷۰، دانشمند کامپیوتر «ماروین مینسکی» (Marvin Minsky) پیشبینی کرد که ماشینهای درحالتوسعه بهزودی «شکسپیر میخوانند، ماشین را روغنکاری میکنند، در سیاست اداری شرکت میکنند، شوخی و دعوا میکنند.» سالها بعد «آزمون قهوه» که اغلب به استیو جابز، بنیانگذار اپل نسبت داده میشود؛ عنوان کرد که AGI زمانی محقق میشود که ماشینی بتواند به خانه یک غریبه برود و یک قهوه درست کند.
جنگِ تعاریف در تالارهای علم و اخلاق
هنوز کمتر کسی بر سر تعریف AGI توافق دارد، چه رسد به دستیابی به آن. متخصصان کامپیوتر و علوم شناختی و دیگران در زمینه سیاست و اخلاق، اغلب درک متمایز خود را از این مفهوم دارند (و نظرات متفاوتی در مورد پیامدها یا امکانپذیری آن دارند). بدون اجماع، تفسیر تواناییهای بالقوه AGI یا ادعاهای مربوط به خطرات و مزایای آن میتواند دشوار باشد. در همین حال، این اصطلاح مکرراً در رسانههای مطبوعاتی، مصاحبهها و مقالات علوم کامپیوتر ظاهر میشود. محققان مایکروسافت در سال ۲۰۲۳ اعلام کردند که GPT-4 «جرقههای AGI» را نشان میدهد. در پایان ماه می ۲۰۲۴ نیز OpenAI تأیید کرد که در حال آموزش نسل بعدی مدل یادگیری ماشین خود است که دارای «سطح بعدی قابلیتها» در «مسیری بهسوی AGI» خواهد بود. برخی از دانشمندان برجسته کامپیوتر نیز استدلال کردهاند که به کمک مدلهای زبانی بزرگ مولد متن، چنین چیزی محقق شده است.
برای دانستن چگونه صحبتکردن در مورد AGI، آزمایش AGI و مدیریت امکان AGI، باید درک بهتری از آنچه در واقع توصیف میکند، به دست آوریم.

بازگشت به هدف اصلی یا ترفند بازاریابی؟
«ملانی میچل» (Melanie Mitchell)، استاد و دانشمند کامپیوتر مؤسسه Sante Fe، میگوید: «هوش جامع مصنوعی اکنون به اصطلاحی محبوب میان دانشمندان کامپیوتر تبدیل شده درحالیکه در اواخر دهه ۱۹۹۰ و اوایل دهه ۲۰۰۰ از آنچه که به نظرشان محدودشدن حوزهشان تلقی میشد، کلافه شده بودند.» این امر نیز واکنشی به پروژههایی مانند Deep Blue، سیستم شطرنجبازی بود که استاد بزرگ گری کاسپارف و سایر قهرمانان را شکست داد. برخی از محققان هوش مصنوعی احساس میکردند که همکارانشان بیش از حد بر آموزش کامپیوترها برای انجام تکالیف واحد مانند بازیها تمرکز کردهاند و هدف اصلی؛ یعنی ماشینهایی با تواناییهای گسترده و شبیه به انسان را فراموش کردهاند. میچل عنوان میکند که: «AGI برای بازگشت به آن هدف اصلی مورداستفاده قرار گرفت» که بهنوعی یک بازتعریف بود.
اما از منظری دیگر و طبق گفته «جوانا بریسون» (Joanna Bryson)، استاد اخلاق و فناوری در مؤسسه Hertie آلمان که در آن زمان در پژوهشهای هوش مصنوعی فعالیت داشت؛ «AGI تحقیرآمیز بود». او معتقد است که این اصطلاح به طور خودسرانه پژوهشهای هوش مصنوعی را به دو گروه از دانشمندان کامپیوتر تقسیم کرد. دسته اول کسانی بودند که به طور معناداری هدف خود را AGI قرار دادند و آشکارا در جستوجوی سیستمی بودند که بتواند هر کاری که انسان انجام میدهد را انجام دهد. دسته دوم نیز فرض میشد در اهداف محدودتر و بنابراین بیاهمیتتر، وقت خود را تلف میکنند. (هرچند بریسون تأکید میکند که بسیاری از این اهداف «محدود»، مانند آموزش کامپیوتر برای بازی کردن بازیها، بعداً به پیشرفت هوش ماشینی کمک کرد.)
محققان هوش مصنوعی وقتی در مورد هوش و نحوه اندازهگیری آن در ماشینها صحبت میکنند، اغلب «بیش از حد مطمئن» هستند.
فاکتور g و توهمِ سنجشِ هوش
تعاریف دیگر AGI نیز به همان اندازه گسترده و ناقص به نظر میرسند. در سادهترین حالت، نشاندهنده از ماشینی است که هوش آن برابر یا فراتر از انسان است. اما به گفته «گری لوپیان» (Gary Lupyan)، دانشمند علوم شناختی و استاد روانشناسی دانشگاه Wisconsin–Madison، خود «هوش» مفهومی دشوار برای تعریف یا کمیسازی است و «هوش جامع» نیز پیچیدهتر است. از نظر او، محققان هوش مصنوعی وقتی در مورد هوش و نحوه اندازهگیری آن در ماشینها صحبت میکنند، اغلب «بیش از حد مطمئن» هستند.
دانشمندان علوم شناختی بیش از یک قرن است که تلاش میکنند تا اجزای اساسی هوش انسانی را شناسایی کنند. بهطورکلی پذیرفته شده است که افرادی که در یک مجموعه از پرسشهای شناختی عملکرد خوبی دارند، نشان میدهند که احتمالاً در سایر پرسشها هم نیز عملکرد خوبی داشته باشند. بسیاری این عامل را به یک جنبه قابلاندازهگیری و ناشناخته ذهن انسان که اغلب بهعنوان «فاکتور g» نامیده میشود، نسبت دادهاند. اما لوپیان و بسیاری دیگر مخالفت این ایده هستند و استدلال میکنند که آزمونهای هوش و سایر ارزیابیهایی که برای کمیسازی هوش عمومی استفاده میشوند، تنها واکنشهایی از ارزشهای فرهنگی و شرایط محیطی فعلی هستند. لوپیان در دفاع از ادعای خود استدلال میکند که دانشآموزان ابتدایی که اصول برنامهنویسی کامپیوتر را یاد میگیرند و دانشآموزان دبیرستانی که کلاسهای حساب دیفرانسیل را میگذرانند، به دستاوردهایی رسیدهاند که «کاملاً خارج از محدوده امکانپذیری برای مردم حتی چند صد سال پیش بوده است». اما این به معنای باهوشتر بودن کودکان امروز نسبت به بزرگسالان گذشته نیست؛ بلکه انسانها بهعنوان یک گونه دانش بیشتری اندوختهاند و اولویتهای یادگیری خود را از وظایف مرتبط با رشد و تهیه غذا، به سمت تواناییهای محاسباتی تغییر دادهاند.
به عقیده «آلیسون گوپنیک» (Alison Gopnik) استاد روانشناسی در دانشگاه برکلی کالیفرنیا، «چیزی به نام هوش جامع، چه مصنوعی چه طبیعی وجود ندارد.» انواع مختلف مشکلات نیازمند تواناییهای شناختی متفاوتی هستند و او یادآوری میکند که هیچ نوعی از هوشی نمیتواند همه چیز را انجام دهد. به گفته گوپنیک در واقع تواناییهای شناختی مختلف میتوانند با یکدیگر در تضاد باشند. برای مثال کودکان خردسال برای انعطافپذیری و یادگیری سریع آماده هستند که به ذهن آنها اجازه میدهد بهسرعت اتصالات جدیدی ایجاد کند؛ اما به دلیل رشد و تغییر سریع ذهنشان، در برنامهریزی بلندمدت عملکرد خوبی ندارند. اصول و محدودیتهای مشابهی نیز برای ماشینها اعمال میشود و از نظر گوپنیک «AGI کمی بیشتر از یک شعار بازاریابی خیلی خوب» است.
پارادوکس موروویچ، چرا نوابغِ دیجیتال در تاشدن لباس درمیمانند؟
«پارادوکس موروویچ» (Moravec’s Paradox) که برای اولینبار در سال ۱۹۸۸ معرفی شد، بیان میکند که آنچه برای انسانها آسان است برای ماشینها دشوار است و آنچه انسانها چالشبرانگیز مییابند اغلب برای کامپیوترها آسانتر است. بسیاری از سیستمهای کامپیوتری میتوانند عملیات ریاضی پیچیدهای را انجام دهند، اما نسبتاً دشوار است که بتوانید رباتها وادار به تا کردن لباس یا چرخاندن دستگیره در کنید. به گفته میچل هنگامی که مشخص شد ماشینها همچنان در انجام کارهای عملی و در تعامل با اشیا با مشکل مواجه خواهند بود، تعاریف رایج AGI ارتباط خود را با دنیای فیزیکی از دست دادند. در این موقعیت AGI به معنای تسلط بر وظایف شناختی و سپس آنچه که یک انسان میتواند درحالیکه به اینترنت متصل است انجام دهد، تغییر پیدا کرد.

OpenAI هوش جامع مصنوعی را بهعنوان «سیستمهای بسیار خودمختار که در اکثر کارهایی که ارزش اقتصادی دارند، از انسانها عملکرد بهتری دارند» تعریف میکند. بااینحال سم آلتمن در برخی از بیانیههای عمومی، بینشی بازتر ارائه کرده است. او در مصاحبهای در سال ۲۰۲۴ گفت: «من دیگر فکر نمیکنم AGI مانند یک لحظه در زمان باشد. شما و من احتمالاً در مورد ماه یا حتی سالی که میگوییم این AGI است؛ همنظر نخواهیم بود.»
از هوش نوظهور تا قلمرو ابرانسان
داوران علمی پیشرفتهای هوش مصنوعی نیز بهجای پذیرش ابهام، به جزئیات پرداختهاند. در یک مقاله پیشانتشار در سال ۲۰۲۳، محققان Google DeepMind شش سطح هوش را پیشنهاد کردند که از طریق آن میتوان سیستمهای کامپیوتری مختلف را رتبهبندی کرد. سیستمهایی که از «بدون هوش مصنوعی» (No AI) شروع میشوند و با «نوظهور» (Emerging)، «کارآمد» (Competent)، «متخصص» (Expert)، «خبره» (Virtuoso) و «ابرانسان» (Superhuman) تکمیل میشوند.

آنها همچنین ماشینها را به انواع محدود (وظیفهمحوور) یا عمومی تقسیم کردند. «مریدیث رینگل موریس» (Meredith Ringel Morris) نویسنده اصلی این مقاله میگوید: «AGI اغلب مفهومی بسیار بحثبرانگیز است و فکر میکنم مردم نیز از این تعریف عملی قدردانی میکنند. برای ساختاربندی این ویژگیها، موریس و همکاران او به طور خاص بر روی توضیح آنچه که یک هوش مصنوعی میتواند انجام دهد تمرکز کردند، نه اینکه چگونه وظایف را انجام میدهد. سؤالات علمی مهمی درباره اینکه LLMها و سایر سیستمهای هوش مصنوعی خروجیهای خود را چگونه به دست میآورند و آیا واقعاً هر چیزی شبیه به انسان را تکرار میکنند، وجود دارد. اما موریس میگوید، او و همکارانش او میخواستند «اهمیت عملی آنچه که در حال اتفاقافتادن است را درک کنند.»
محققان هوش مصنوعی وقتی در مورد هوش و نحوه اندازهگیری آن در ماشینها صحبت میکنند، اغلب «بیش از حد مطمئن» هستند.
آلیسون گوپنیک – دانشگاه برکلی کالیفرنیا
بر اساس طرح DeepMind، تعداد کمی از مدلهای زبان بزرگ، از جمله ChatGPT و Gemini؛ واجد شرایط «هوش مصنوعی نوظهور» هستند؛ زیرا آنها «برابر یا کمی بهتر از یک انسان ناآشنا، در طیف وسیعی از وظایف غیرفیزیکی، از جمله وظایف فراشناختی مانند یادگیری مهارتهای جدید» هستند. اما حتی همین ساختاربندی دقیق نیز پرسشهای بدون پاسخی را به همراه دارد. این مقاله مشخص نمیکند که چه وظایفی باید برای ارزیابی تواناییهای یک سیستم هوش مصنوعی استفاده شود یا تعداد وظایفی که یک سیستم محدود را از یک سیستم عمومی متمایز میکند چیست و همچنین روشی برای ایجاد معیارهای مقایسهای در سطح مهارت انسان را ارائه نمیدهد. به گفته موریس تعیین وظایف مناسب برای مقایسه مهارتهای ماشین و انسان «یک حوزه پژوهشی فعال» است.
دیکتاتوری واژگان؛ اگر نام دیگری بر آن میگذاشتیم…
بااینحال، برخی دانشمندان میگویند پاسخدادن به این پرسشها و شناسایی آزمونهای مناسب، تنها راه ارزیابی این است که آیا یک ماشین هوشمند است یا خیر. در اینجا نیز روشهای فعلی ممکن است ناکافی باشند و به گفته میچل معیارهای هوش مصنوعی محبوب مانند آزمون SAT، آزمون وکالت یا سایر آزمونهای استاندارد انسانی، تفاوتی بین یک هوش مصنوعی که دادههای آموزشی را تکرار میکند و سیستم دیگری که یادگیری انعطافپذیر و توانایی را نشان میدهد، قائل نمیشوند. میچل توضیح میدهد که: «صرف آزمون دادن یک ماشین به این شکل لزوماً به این معنی نیست که قادر خواهد بود خارج از این چارچوب، کارهایی را انجام دهد که انسانها اگر نمره مشابهی بگیرند میتوانند انجام دهند.»
همانطور که دولتها در تلاش برای تنظیمگری هوش مصنوعی هستند، برخی از استراتژیها و سیاستهای رسمی آنها نیز بهAGI اشاره دارد. تعریفهای متغیر میتواند نحوه اجرای این سیاستها تغییر دهد. «پئی وانگ» (Pei Wang) دانشمند کامپیوتر دانشگاه Temple میگوید: «اگر سعی کنید قانونگذاری را به نحوی انجام دهید که تمامی جنبههای AGI را پوشش دهد؛ این کار صرفاً غیرممکن خواهد بود.» نتایج واقعی ممکن است با درک اصطلاحات تغییر کند به گفته وانگ همه این موارد پیامدهای بحرانی برای ایمنی و مدیریت ریسک هوش مصنوعی دارند.
درس کلیدیای که میتوان ظهور LLMها گرفت شاید این باشد که زبان قدرتمند است. با متن کافی، میتوانیم مدلهای کامپیوتری را آموزش دهیم که برای برخی، مانند نگاهکردن به ماشینی با هوش برابر با انسان به نظر میرسد؛ اما کلماتی که برای این پیشرفت انتخاب میکنیم اهمیت دارند.
به گفته میچل: «این اصطلاحاتی ما استفاده میکنیم، بر نحوه فکرکردن در مورد این سیستمها اثر میگذارد» در کارگاه مهم کالج Dartmouth در سال ۱۹۵۶ که آغازی بر تحقیقات هوش مصنوعی بود؛ دانشمندان در مورد نامگذاری کار خود بحث کردند. برخی «هوش مصنوعی» را ترجیح میدادند و برخی «پردازش اطلاعات پیچیده» را انتخاب کردند. شاید اگر بهجای AGI، نامی مانند «پردازش اطلاعات پیچیده پیشرفته» را به آن نسبت میدادیم؛ کمی آهستهتر به انساننمایی ماشینها میپرداختیم یا از قیامت هوش مصنوعی میترسیدیم و شاید بر سر معنای آن توافق داشتیم.