ویژهنامه هوش مصنوعی مجله تایم
گفتههای برنده جایزه نوبل دمیس هاسابیس، درباره معنای AGI برای بشریت
آخرین باری که با «دِمیس هاسابیس» (Demis Hassabis) مصاحبه کردم، نوامبر ۲۰۲۲ و فقط چند هفته پیش از انتشارChatGPT بود. همان زمان و پیش از آنکه جهان دیوانهوار به سمت هوش مصنوعی برود، مدیرعامل گوگل DeepMind هشدار صریحی درباره سرعت فزاینده پیشرفت هوش مصنوعی داد. هاسابیس در آن زمان گفت: «من طرفدار این نیستم که سریع پیش برویم و چیزها را بشکنیم.» او از آنچه «نگرش بیپروایانه» برخی در حوزهاش میدید، انتقاد کرد و آنها را به آزمایشگرانی تشبیه کرد که «نمیدانند در دستشان مواد خطرناک دارند.»
دو سال و نیم بعد، جهان هوش مصنوعی دگرگون شده است. خود هاسابیس نیز بخشی از جایزه نوبل شیمی ۲۰۲۴ را برای کارش روی آلفافولد دریافت کرد؛ سامانهای هوش مصنوعی که میتواند ساختار سهبعدی پروتئینها را پیشبینی کند و پژوهشهای زیستپزشکی را بهشدت شتاب بخشیده است. سرعت پیشرفت هوش مصنوعی چنان بالا بوده که بسیاری از پژوهشگران اکنون باور دارند هوش مصنوعی در سطح انسان که در صنعت بهعنوان هوش جامع مصنوعی یا AGI شناخته میشود، احتمالاً در همین دهه پدید خواهد آمد. در سال ۲۰۲۲ حتی اعتراف به امکان وجود AGI نیز در حاشیه به شمار میرفت. اما هاسابیس همیشه به این ایده اعتقاد داشته است. در واقع، هدف نهایی زندگی او ساخت AGI است.
ساخت AGI نیازمند حجم عظیمی از توان محاسباتی است؛ زیرساختی که تنها چند غول فناوری، از جمله گوگل، در اختیار دارند. این موضوع به گوگل قدرت نفوذی بر هاسابیس میدهد که شاید خودش تمایلی به پذیرش آن نداشته باشد. هنگامی که هاسابیس به گوگل پیوست، از شرکت تعهد گرفت که هوش مصنوعی DeepMind هرگز برای مقاصد نظامی یا تسلیحاتی به کار نرود. اما ده سال بعد، دیگر آن تعهد وجود ندارد. اکنون گوگل خدمات خود از جمله هوش مصنوعی DeepMind را به ارتشها از جمله ارتش ایالات متحده و همانطور که تایم سال گذشته فاش کرد، اسرائیل میفروشد. بنابراین یکی از پرسشهایی که میخواستم از هاسابیس بپرسم، زمانی که به مناسبت انتخابش در فهرست TIME100 سال ۲۰۲۵ با او گفتوگو کردم، این بود: آیا برای رسیدن به هدف زندگیات ناچار به مصالحه شدی؟
این گفتوگو برای روشنی و اختصار، ویرایش و خلاصه شده است.
اگر AGI ساخته شود، تأثیر بسیار بزرگی خواهد داشت. میتوانی بهترین سناریوی ممکن را برایم ترسیم کنی؟ اگر AGI بسازیم، جهان چه شکلی خواهد بود؟
دلیل اینکه تمام عمرم را صرف کار روی هوش مصنوعی و AGI کردهام این است که باور دارم اگر بهدرستی و با مسئولیت ساخته شود، سودمندترین فناوری تاریخ بشر خواهد بود. به نظرم اگر ۱۰ سال یا بیشتر به آینده نگاه کنیم، میتوانیم از آن برای درمان شاید همه بیماریها استفاده کنیم و در زمینههایی مانند یافتن منابع انرژی جدید، چه همجوشی، چه باتریهای بهینه یا مواد جدید مانند ابررساناها کمک بگیریم. فکر میکنم برخی از بزرگترین مشکلاتی که امروز جامعه ما با آن روبهرو است، مانند بحران اقلیم یا بیماریها، با راهحلهای مبتنی بر هوش مصنوعی بهبود خواهند یافت. بنابراین اگر ۱۰ سال به جلو برویم، به نظرم در چشمانداز خوشبینانه، ما در جهانی زندگی خواهیم کرد که در آن شکوفایی انسانی به حداکثر میرسد، به ستارگان سفر میکنیم و از فناوریهایی بهره میبریم که هوش مصنوعی در تحقق آنها نقش دارد.

بگذار نمونهای بزنم: بحران اقلیم. فکر نمیکنم بتوانیم آن را به روش دیگری حل کنیم جز با فناوریهای بیشتر، از جمله فناوریهای یاریگرفته از هوش مصنوعی مانند منابع انرژی جدید و امثال آن. بعید میدانم بتوانیم آنقدر سریع به اقدام جمعی معناداری برسیم که خودمان بدون فناوری مشکل را حل کنیم.
بهبیان دیگر، اگر نمیدانستم چیزی بهاندازه تحولآفرینی هوش مصنوعی در راه است، واقعاً برای جامعه امروز نگران میشدم. من عمیقاً باور دارم یکی از دلایلی که نسبت به ۵۰ سال آینده خوشبینم همین است: اگر هوش مصنوعی را بهدرستی بسازیم، میتواند در حل جدیترین مشکلاتمان کمک کند. تقریباً مثل نیروی کمکی است و فکر میکنم ما امروز به این نیروی کمکی نیاز داریم.
در عین حال، بارها درباره ضرورت پرهیز از خطرات هشدار دادهای؛ میتوانی بدترین سناریوی ممکن را ترسیم کنی؟
البته. بهنظر من بدترین حالت را بارها در داستانهای علمیتخیلی دیدهایم. من دو نگرانی اصلی دارم؛ نخست اینکه هوش مصنوعی فناوری فوقالعادهای است، اگر درست به کار رود. اما فناوریای با دو کاربرد است و قدرتی باورناپذیر دارد. معنایش این است که افراد با نیت بد میتوانند آن را برای اهداف زیانبار استفاده کنند. بنابراین یکی از چالشهای بزرگ ما هم به عنوان یک حوزه علمی و هم در سطح اجتماعی، این است که چگونه دسترسی به این فناوریها را برای کنشگران فراهم کنیم تا کارهای خارقالعادهای مانند درمان بیماریها انجام دهند و در عین حال دسترسی افراد یا دولتهای متخاصم را محدود کنیم؟ این معما واقعاً دشوار است.
دومین مسئله خودِ خطر AGI است؛ یعنی خطر ناشی از خود فناوری، بهویژه وقتی سامانهها خودمختارتر و عاملمحورتر میشوند؛ روندی که در سالهای آینده رخ خواهد داد. چطور اطمینان حاصل کنیم که کنترل آن سامانهها در دست ما باقی میماند، بتوانیم کارشان را تفسیر و درک کنیم، محافظهایی بگذاریم که سامانههای بسیار توانمندِ خودبهبودگر نتوانند از آن عبور کنند؟ این نیز چالشی بسیار سخت است. این دو، دو حوزه اصلی ریسکپذیری هوش مصنوعی هستند. اگر بتوانیم آنها را درست مدیریت کنیم، به آیندهای شگفتانگیز خواهیم رسید.

اما هنوز نگفتی بدترین سناریوی ممکن دقیقاً چیست و چه شکلی دارد؟
اگر در این زمینه شکست بخوریم، سامانهها برای اهداف زیانبار به کار خواهند رفت؛ درست برعکس آنچه میخواهیم. مثلاً بهجای یافتن درمانها، همان سامانهها ممکن است برای تولید سموم استفاده شوند. یعنی اگر اهداف سامانه را وارونه کنیم، همه کاربردهای خوب میتوانند به کاربردهای مخرب تبدیل شوند. به همین دلیل من همیشه طرفدار همکاری بینالمللی بودهام. چون این سامانهها، هرجا که ساخته شوند، میتوانند در سراسر جهان توزیع شوند و بر همه تأثیر بگذارند. بنابراین به نظرم باید استانداردهای بینالمللی درباره نحوه ساخت، طراحی، هدفگذاری و بهکارگیری آنها وجود داشته باشد.
وقتی گوگل در سال ۲۰۱۴ شرکت DeepMind را خرید، قراردادی امضا کردی که میگفت گوگل از فناوری شما برای مقاصد نظامی استفاده نخواهد کرد. از آن زمان، ساختار DeepMind تغییر کرده و اکنون فناوری آن به ارتشهای مختلف از جمله آمریکا و اسرائیل فروخته میشود. تو از مزایای عظیم توسعه AGI سخن گفتهای؛ آیا برای رسیدن به فرصت ساخت آن فناوری، در اصول کاری خودت مصالحه کردهای؟
نه، فکر نمیکنم چنین باشد. ما اخیراً برخی از سیاستها را بهروزرسانی کردیم تا بازتابدهنده شرایط جدید و عدم اطمینانهای ژئوپلیتیکی بزرگتری باشند که در جهان به وجود آمدهاند. متأسفانه دنیا جای خطرناکتری شده است. دیگر نمیتوانیم فرض بگیریم که ارزشهای دموکراتیک همیشه پیروز خواهند شد و این موضوع اصلاً روشن نیست. تهدیدهای جدی وجود دارد؛ بنابراین فکر میکنم باید با دولتها همکاری کنیم. همکاری با دولتها همچنین به ما امکان میدهد با صنایع مهم و رگولاتوریشده دیگر مانند بانکداری، سلامت و غیره نیز کار کنیم. اصول ما تغییری نکردهاند. اصل بنیادین ما همیشه این بوده است: باید منافع را با دقت در برابر خطرات بسنجیم و این منافع باید بهطور چشمگیر بر خطرات احتمالی برتری داشته باشند. این معیار سختگیرانهای است که برای هر کاری که میخواهیم انجام دهیم، بررسی میکنیم. البته باید به حقوق بشر و قوانین بینالمللی نیز احترام بگذاریم و همچنان پابرجا هستند.
نکته دیگر اینکه، اکنون این فناوری بهطور گسترده در دسترس است. سامانههای متنباز مانند DeepSeek و Llama شاید به اندازه مدلهای اختصاصی برتری نداشته باشند، اما بسیار خوب عمل میکنند. وقتی چیزی متنباز است، عملاً یعنی کل دنیا میتواند از آن برای هر منظوری استفاده کند. بنابراین من میان فناوری عمومیشده و فناوری خاص تمایز قائل میشوم. در حوزه فناوری خاص، ما قصد داریم روی چیزهایی کار کنیم که در آنها منحصربهفرد و بهترین در جهان هستیم، مانند دفاع سایبری و امنیت زیستی (Biosecurity)؛ یعنی حوزههایی که بهگمانم از نظر اخلاقی وظیفه داریم در آنها کمک کنیم، چون در آن زمینهها واقعاً برترینیم و فکر میکنم این موارد برای غرب بسیار مهم است.
در دنیای ایمنی هوش مصنوعی، بحثهای زیادی درباره میزان احتمال بروز رفتارهایی مانند قدرتطلبی، فریبکاری، تلاش برای تضعیف انسانها و فرار از کنترل توسط این سامانهها وجود دارد. نظر قاطع تو چیست؟ آیا این مسیر پیشفرض تکامل این سیستمهاست، یا فقط یک خطر حاشیهای است؟
احساس من این است که خطرات هنوز ناشناختهاند. در هر دو سوی این بحث، افراد برجستهای مانند همکاران من و حتی برندگان جایزه تورینگ حضور دارند. فکر میکنم پاسخ درست جایی میان این دو دیدگاه قرار دارد، چون وقتی افراد بسیار باهوش در هر دو طرف چنین بحثی هستند، این شرایط به من میگوید که هنوز به اندازه کافی دربارهاش نمیدانیم تا بتوانیم خطر را بهطور کمی بسنجیم. ممکن است وقتی سامانهها را بیشتر توسعه دهیم، متوجه شویم که کنترل آنها بسیار سادهتر از آن چیزی است که فرض میکردیم. در بسیاری از موارد پیشتر هم چنین اتفاقی افتاده است. برخی شواهد نشان میدهند که اوضاع شاید کمی آسانتر از تصور بدبینترین افراد باشد. اما از دید من همچنان خطر قابلتوجهی وجود دارد و باید با دقت تحقیق کنیم تا میزان آن را بسنجیم و سپس پیش از وقوع هر مشکل، با دوراندیشی کامل برایش راهحل بیابیم؛ چون در مورد فناوریهایی با چنین قدرت و دگرگونی عظیمی، واکنش پس از حادثه میتواند فوقالعاده خطرناک باشد.

چه چیزی باعث میشود شبها از نگرانی بیدار بمانی؟
برای من، این مسئله استانداردها و همکاری بینالمللی است؛ نه فقط بین کشورها بلکه میان شرکتها و پژوهشگران، وقتی که به مراحل پایانی ساخت AGI نزدیک میشویم. بهنظرم ما در آستانه آن نقطهایم و شاید پنج تا ده سال فاصله داشته باشیم. برخی میگویند زودتر خواهد بود و اگر چنین شود تعجب نمیکنم. این اتفاق مثل یک توزیع احتمالاتی است. در هر حال، زمان زیادی باقی نمانده است و مطمئن نیستم جامعه برای آن آماده باشد. باید دربارهاش عمیقتر فکر کنیم؛ درباره همان مسائلی که پیشتر گفتم، از جمله کنترلپذیری سامانهها و دسترسی به آنها و اینکه چگونه اطمینان حاصل کنیم همهچیز بهخوبی پیش میرود.
خودت را بیشتر دانشمند میدانی یا فناور؟ اینجا در لندن، دور از سیلیکونولی، چگونه خودت را تعریف میکنی؟
من پیش از هر چیز خودم را یک دانشمند میدانم. تمام کاری که در زندگیام انجام دادهام، در مسیر جستوجوی دانش و فهمیدن جهان پیرامون بوده است. از کودکی به این موضوع وسواس داشتم. برای من، ساخت هوش مصنوعی نوعی شیوه پاسخ دادن به همین پرسشهاست: نخست، ساختن ابزاری که خودش پدیدهای شگفتانگیز است و دربرگیرنده گزارههایی درباره «هوش» و «آگاهی» است؛ یعنی مفاهیمی که خود از بزرگترین اسرار بشریت هستند. دوم، استفاده از همان ابزار برای کاوش در دنیای طبیعی اطرافمان؛ در شیمی، فیزیک و زیستشناسی. چه ماجرایی میتواند از این هیجانانگیزتر باشد؟
بنابراین خودم را اول دانشمند میدانم، و شاید در مرتبه دوم کارآفرین، چون این سریعترین راه برای انجام دادن کارهاست و در نهایت، شاید فناور یا مهندس، چون در پایان نمیخواهی فقط در آزمایشگاه نظریهپردازی کنی؛ میخواهی در جهان واقعی تأثیرگذاری ملموسی داشته باشی.
بیایید کمی درباره جدول زمانی صحبت کنیم. سم آلتمن و داریو آمودئی اخیراً پیشبینیهایی کردهاند…
خیلی کوتاهمدت، درست است؟
آلتمن میگوید انتظار دارد AGI در دوران ریاستجمهوری ترامپ ظهور کند و آمودئی میگوید ممکن است زودتر، حتی در سال ۲۰۲۶، اتفاق بیفتد.
ببین، تا حدی بستگی به تعریف تو از AGI دارد. فکر میکنم این تعریف به دلایل مختلفی مثل جذب سرمایه بهقولمعروف آب رفته است. هر کس ممکن است انگیزه خاصی برای این کار داشته باشد. اما تعریف ما از ابتدا تا امروز کاملاً ثابت مانده است: ایده داشتن تمام تواناییهای شناختی انسان. آزمون من برای سنجش آن این است که آیا یک هوش مصنوعی میتواند همانند اینشتین، با مقدار اطلاعاتی که او در اوایل دهه ۱۹۰۰ در اختیار داشت، به نظریه نسبیت عام برسد؟ مسئله فقط حل کردن یک معادله ریاضی نیست، بلکه خلق فرضیهای ارزشمند است. من تقریباً مطمئنم که بهزودی سامانههایی خواهیم داشت که بتوانند یکی از «مسائل جایزه هزاره» (Millennium Prize Problems) را حل کنند. اما آیا میتوانند فرضیههایی به همان اندازه جالب و نوآورانه ارائه دهند؟
«ما برخی از بهترین متخصصان امنیتی جهان را داریم که روی این مسائل کار میکنند تا مطمئن شویم سیستمها حریم خصوصی را حفظ میکنند، دادهها حتی روی سرورهای ما رمزگذاری میشوند و همه این فناوریها بهدرستی به کار میروند.»
دمیس هاسابیس، مدیرعامل Google DeepMind
بهطور خلاصه، تفاوتی که گفتی شبیه همان تمایز میان دانشمند و فناور است. همه فناوران میگویند AGI سامانهای است که میتواند کار اقتصادی را بهتر یا ارزانتر از انسان انجام دهد.
توصیف بسیار خوبی است. شاید به همین دلیل است که من به وجه علمی بیشتر علاقهمندم، چون همیشه دانشمندان تاریخ را تحسین کردهام و باور دارم آنها کسانی هستند که واقعاً مرزهای دانش را جلو میبرند؛ در مقابلِ صرفاً کاربردی کردن آن. البته هر دو بُعد علم و مهندسی برای جامعه حیاتی هستند؛ اما به نظرم آنچه فعلا در ]هوش مصنوعی وجود ندارد[ است، تولید فرضیه است.
بیایید جزئیتر بررسی کنیم. به نظر تو چقدر تا پژوهشگر خودکاری فاصله داریم که بتواند بهطور معنادار در تحقیقات هوش مصنوعی مشارکت کند؟
فکر میکنم چند سال با آن فاصله داریم. دستیارهای کدنویسی دارند واقعاً خوب میشوند و بهنظرم تا سال آینده بسیار عالی خواهند شد. ما در این زمینه سخت کار میکنیم. شرکت Anthropic بیشتر بر آن تمرکز دارد، در حالی که ما بیشتر روی جنبههای علمی کار میکنیم. هنوز [هوش مصنوعی] در حد بهترین برنامهنویسان نیست تا بتواند ساختار یک سیستمعامل را به زیبایی طراحی کند. آن بخش هنوز جای کار دارد، پس گمان میکنم چند سال دیگر با آن فاصله داریم.
تو در مدلهای Gemini تأکید زیادی بر چندوجهی بودن داری و بر اینکه سیستم فقط در فضای زبانی عمل نکند بلکه در دنیای واقعی نیز حضور داشته باشد. بیش از دیگر آزمایشگاهها روی این مسئله تمرکز کردهای. چرا؟
به چند دلیل. نخست، چون معتقدم هوش واقعی نیازمند درک جهان فضایی-زمانی پیرامون ماست. چنین چیزی برای هر کار علمی واقعیای که میخواهی انجام دهی نیز حیاتی است. همچنین فکر میکردم این کار باعث بهبود مدلهای زبانی میشود و بهگمانم نشانههایی از آن را میبینیم، چون مدل را در بستر واقعیتری پایهگذاری کردهایم. البته زبان بهتنهایی بسیار فراتر از حد انتظار پیش رفته است؛ حتی بیش از آنچه خودم فکر میکردم ممکن باشد. در نهایت، مسئله کاربرد هم مطرح است، چون دو مورد کاربرد در ذهن دارم که بهطور جدی روی آنها کار میکنیم. یکی ایده «دستیار دیجیتال جهانی» (Universal Digital Assistant) است؛ ابزاری که در زندگی روزمره به تو کمک کند، بهرهوریات را افزایش دهد و کیفیت زندگیات را بالا ببرد. دستیاری که فقط در رایانه نباشد، بلکه همراهت باشد؛ روی گوشی، عینک یا هر دستگاه دیگر و همیشه مفید باشد. برای آنکه چنین چیزی کار کند، باید جهان اطراف را درک کند و آن را پردازش کند. مورد دوم، رباتیک است؛ برای رباتیک در دنیای واقعی دقیقاً همین ویژگی لازم است. باید بتواند بافت فضایی پیرامونش را بفهمد. انسانها چندوجهیاند، درست است؟ ما با صفحهنمایشها کار میکنیم، بینایی داریم، ویدیو میبینیم، تصویر خلق میکنیم و به صدا گوش میدهیم. بنابراین یک سامانه هوش مصنوعی هم باید بتواند این جنبهها را بازتاب دهد تا به کاملترین شکل با ما تعامل کند.

«مردیت ویتیکر» (Meredith Whittaker) رئیس سیگنال، انتقاد مهمی به همین مفهوم «دستیار جهانی» مطرح کرده است؛ او میگوید این کمک رایگان به دست نمیآید، چون در ازای آن، کاربر باید حجم زیادی از دادههای شخصیاش را در اختیار سامانه بگذارد. برای مفید بودن، باید تقریباً به همهچیز درباره زندگیات دسترسی داشته باشد. گوگل شرکتی است که از طریق جمعآوری دادههای شخصی و تبلیغات هدفمند درآمد دارد. درباره پیامدهای حریم خصوصی این نوع عاملها چطور فکر میکنی؟
مردیت درست میگوید. من کار او در سیگنال را تحسین میکنم. به نظرم پیش از هر چیز، چنین سامانههایی باید کاملاً بر اساس رضایت کاربر و Opt-in باشند.
اما ما در حال حاضر هم به بسیاری از چیزها مثل ردیابی دیجیتال رضایت میدهیم.
بله، در نهایت این انتخاب شماست؛ اما طبیعی است که مردم از آن استفاده خواهند کرد، چون مفید است. به نظرم این فناوری تنها در صورتی موفق میشود که کاربر کاملاً مطمئن باشد آن دستیار «مال او» است. باید برایت قابل اعتماد باشد، چون مثل یک دستیار واقعیِ انسانی تنها زمانی مفید است که تو را خوب بشناسد. دستیارانم من را بهتر از خودم میشناسند و به همین دلیل همکاریمان عالی است. فکر میکنم همین سطح از کارایی را کاربران از دستیار دیجیتالشان انتظار دارند.
اما باید مطمئن باشی که دادهها واقعاً بهصورت جداگانه و ایمن نگهداری میشوند. ما برخی از بهترین متخصصان امنیت جهان را داریم که روی این موضوع کار میکنند تا اطمینان حاصل شود که همهچیز با حفظ حریم خصوصی، حتی در سرورهای ما رمزگذاریشده و به شیوهای ایمن انجام میشود. ما سخت روی این فناوریها کار میکنیم تا وقتی پروژه «Astra» که نسخه دستیار ماست آماده عرضه عمومی شد، همهچیز مهیا باشد. فکر میکنم در نهایت تصمیم با مصرفکننده خواهد بود و کاربران ترجیح خواهند داد از سامانههایی استفاده کنند که حفظ حریم خصوصی را تضمین میکنند.
همچنین فکر میکنم «محاسبات لبهای» و «مدلهای لبهای» در این زمینه بسیار اهمیت خواهند داشت و همین یکی از دلایلی است که ما تا این اندازه به ساخت مدلهای کوچک اما بسیار کارآمد اهمیت میدهیم؛ مدلهایی که بتوانند روی یک دستگاه مجزا اجرا شوند.
نمیدانم از نظر شما چقدر طول میکشد تا شاهد تأثیرات عمده این فناوریها بر بازار کار باشیم. اما اگر یا وقتی که چنین اتفاقی بیفتد، بهطور گستردهای موجب آشوب سیاسی خواهد شد، درست است؟ آیا برنامهای برای هدایت این آشوب دارید؟
من با اقتصاددانان زیادی درباره این موضوع صحبت میکنم. فکر میکنم در وهله اول، لازم است متخصصان این حوزه کار جدیتری در این زمینه انجام دهند. وقتی با اقتصاددانان صحبت میکنم، مطمئن نیستم که کار کافی در این زمینه انجام میشود یا نه. ما در حال ساخت سیستمهای عاملمحور هستیم چون مفیدتر خواهند بود. این مسئله بهگمانم بر مشاغل نیز تأثیر خواهد گذاشت؛ هرچند تصور میکنم باعث ایجاد مشاغل جدیدی هم میشود که اکنون وجود ندارند. مشاغلی که در آن شما مجموعهای از عاملها را مدیریت میکنید که کارهای روزمره یا پژوهشهای پسزمینه را انجام میدهند، اما شما همچنان مقاله نهایی را مینویسید یا پژوهش نهایی را تولید میکنید یا ایدهاش را میدهید یا اینکه اصلاً چرا دارید روی آن چیزها تحقیق میکنید. بنابراین فکر میکنم در مرحله بعد، انسانها با کمک این ابزارهای شگفتانگیز قدرتمندتر میشوند، بهشرطی که بلد باشید از آنها درست استفاده کنید.
بله، آشوب و دگرگونی وجود خواهد داشت، اما در مجموع بهنظرم نتیجه بهتر خواهد بود؛ مشاغل بهتر، شادابتر و رضایتبخشتر خواهند شد و کارهای یکنواخت از میان خواهند رفت. در گذشته هم فناوری همین مسیر را طی کرده است. اما وقتی به سطح AGI برسیم؛ یعنی زمانی که میتواند کارهای بسیار زیادی انجام دهد، پرسش این است که آیا میتوانیم دستاوردهای حاصل از افزایش بهرهوری را بهطور عادلانه و گسترده در سراسر جهان توزیع کنیم؟ و پس از آن، مسئله معنا و هدف پیش میآید. این همان پرسش فلسفی بعدی است و بهگمانم باید فیلسوفان بزرگ از همین امروز به آن بیندیشند.
وقتی آخرین بار در سال ۲۰۲۲با شما مصاحبه کردم، کمی درباره این موضوع صحبت کردیم و شما گفتید: «اگر در جهانی با وفور رادیکال (Radical Abundance) زندگی کنیم، باید فضای کمتری برای نابرابری وجود داشته باشد و راههای کمتری برای شکلگیری آن. این یکی از پیامدهای مثبت تحقق چشمانداز AGI است.» اما در چنین جهانی، هنوز هم افرادی خواهند بود که ثروت را در اختیار دارند، کسانی که ندارند و کارگرانی که ممکن است دیگر شغلی نداشته باشند. به نظر میرسد تحقق چشمانداز وفور رادیکال مستلزم نوعی انقلاب سیاسی بزرگ است تا به مرحلهای برسیم که آن ثروت بازتوزیع شود. آیا میتوانید چشماندازتان را در این باره شرح دهید؟
من شخصاً زمان زیادی صرف این موضوع نکردهام، هرچند احتمالاً باید بیشتر به آن بپردازم و باز هم فکر میکنم اقتصاددانان برجسته باید جدیتر درباره این مسئله فکر کنند. منظورم از «وفور رادیکال» این است که چیزهایی مانند همجوشی هستهای، باتریهای بهینه یا ابررساناها را حل کرده باشید. فرض کنید با کمک هوش مصنوعی هر سه مورد را حل کردهاید؛ این یعنی هزینه انرژی عملاً به صفر میرسد، انرژی پاک و تجدیدپذیر خواهد بود. این یعنی ناگهان مشکل دسترسی به آب نیز از بین میرود، چون میتوان نیروگاههای نمکزدایی ساخت که کار پیچیدهای نیست و فقط به انرژی و آب دریا نیاز دارد. همچنین به این معناست که تولید سوخت موشک نیز ساده میشود؛ چون میتوان با روشهای مشابه، هیدروژن و اکسیژن را از آب دریا جدا کرد. در نتیجه، بسیاری از چیزهایی که اساس جهان سرمایهداری امروز را تشکیل میدهند، دیگر معتبر نیستند زیرا پایه آنها هزینه انرژی، هزینه منابع و کمبود منابع است. اما اگر اکنون بتوانید به فضا دسترسی داشته باشید و منابع سیارکها را استخراج کنید؛ هرچند ساخت زیرساختهای آن چند دهه طول میکشد، آنگاه باید وارد یک دوران اقتصادی تازه شویم.

اما این توضیح، مسئله نابرابری را حل نمیکند، درست است؟ هنوز هم ثروت از استخراج آن سیارکها بهدست میآید. زمین هم محدود است.
بله، بسیاری از چیزها امروز محدود هستند و همین باعث میشود در نهایت یک بازی حاصلجمع صفر باشد. اما من به دنیایی فکر میکنم که دیگر چنین نباشد، حداقل از نظر منابع. البته هنوز پرسشهای دیگری باقی میماند، مثل اینکه آیا مردم همچنان به دنبال قدرت و چیزهای دیگر خواهند بود؟ احتمالاً بله. بنابراین آن مسائل باید از نظر سیاسی حلوفصل شوند. اما حداقل یکی از مشکلات اساسی را حل کردهاید، یعنی در جهانی با منابع محدود، همهچیز در نهایت به یک بازی حاصلجمع صفر تبدیل میشود. این تنها منبع درگیری نیست، اما منبع عمدهای از درگیریها و نابرابریهاست، اگر تا ریشه بررسیاش کنیم. منظورم از «وفور رادیکال» این است: دیگر بهطور معنادار در دنیایی محدود و مبتنی بر منابع زندگی نمیکنیم. ولی احتمالاً لازم است نوعی فلسفه سیاسی جدید برای آن پدید آید؛ از این بابت تقریباً مطمئنم.
ما در دنیای غرب از طریق عصر روشنگری به دموکراسی رسیدیم، تا حد زیادی چون شهروندان میتوانستند نیروی کار خود را پس بگیرند و تهدید کنند که دولت را سرنگون خواهند کرد، درست است؟ اگر به AGI برسیم، به نظر میرسد هر دو ابزار را از دست میدهیم و این میتواند برای دموکراسی بد باشد.
شاید. شاید لازم باشد به چیزی فراتر و بهتر از دموکراسی تحول پیدا کنیم، نمیدانم. چون دموکراسی هم مشکلاتی دارد و هیچ عصای جادویی نیست. فکر میکنم چرچیل بود که گفت: دموکراسی بدترین نوع حکومت است، بهجز سایر انواع آن. شاید چیزی بهتر وجود داشته باشد. میتوانم بگویم از نظر فناورانه چه اتفاقی میافتد: اگر کار را درست انجام دهیم، باید به «وفور رادیکال» برسیم. اگر چند مسئله بنیادی را حل کنیم، آنچه من «گره ریشهای» (Root-Node) مینامم و پس از آن، مسئله فلسفه سیاسی مطرح میشود. گمان میکنم این همان چیزی است که بسیاری آن را دستکم گرفتهاند. ما به فلسفه جدیدی برای شیوه زندگی نیاز خواهیم داشت.
