Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 گفته‌های برنده جایزه نوبل دمیس هاسابیس، درباره معنای AGI برای بشریت

ویژه‌نامه هوش مصنوعی مجله تایم

گفته‌های برنده جایزه نوبل دمیس هاسابیس، درباره معنای AGI برای بشریت

زمان مطالعه: 13 دقیقه

آخرین باری که با «دِمیس هاسابیس» (Demis Hassabis) مصاحبه کردم، نوامبر ۲۰۲۲ و فقط چند هفته پیش از انتشارChatGPT بود. همان زمان و پیش از آنکه جهان دیوانه‌وار به سمت هوش مصنوعی برود، مدیرعامل گوگل DeepMind هشدار صریحی درباره سرعت فزاینده پیشرفت هوش مصنوعی داد. هاسابیس در آن زمان گفت: «من طرفدار این نیستم که سریع پیش برویم و چیزها را بشکنیم.» او از آنچه «نگرش بی‌پروایانه» برخی در حوزه‌اش می‌دید، انتقاد کرد و آن‌ها را به آزمایشگرانی تشبیه کرد که «نمی‌دانند در دستشان مواد خطرناک دارند.»

دو سال و نیم بعد، جهان هوش مصنوعی دگرگون شده است. خود هاسابیس نیز بخشی از جایزه نوبل شیمی ۲۰۲۴ را برای کارش روی آلفافولد دریافت کرد؛ سامانه‌ای هوش مصنوعی که می‌تواند ساختار سه‌بعدی پروتئین‌ها را پیش‌بینی کند و پژوهش‌های زیست‌پزشکی را به‌شدت شتاب بخشیده است. سرعت پیشرفت هوش مصنوعی چنان بالا بوده که بسیاری از پژوهشگران اکنون باور دارند هوش مصنوعی در سطح انسان که در صنعت به‌عنوان هوش جامع مصنوعی یا AGI شناخته می‌شود، احتمالاً در همین دهه پدید خواهد آمد. در سال ۲۰۲۲ حتی اعتراف به امکان وجود AGI نیز در حاشیه به شمار می‌رفت. اما هاسابیس همیشه به این ایده اعتقاد داشته است. در واقع، هدف نهایی زندگی او ساخت AGI است.

گزارش حاضر در «ویژه‌نامه ۲۰۲۵ هوش مصنوعی مجله تایم» منتشر و در «رسانه تخصصی هوش مصنوعی هوشیو» به زبان فارسی نیز ترجمه شده و در دسترس مخاطبان این حوزه قرار گرفته است.

ساخت AGI نیازمند حجم عظیمی از توان محاسباتی است؛ زیرساختی که تنها چند غول فناوری، از جمله گوگل، در اختیار دارند. این موضوع به گوگل قدرت نفوذی بر هاسابیس می‌دهد که شاید خودش تمایلی به پذیرش آن نداشته باشد. هنگامی که هاسابیس به گوگل پیوست، از شرکت تعهد گرفت که هوش مصنوعی DeepMind هرگز برای مقاصد نظامی یا تسلیحاتی به کار نرود. اما ده سال بعد، دیگر آن تعهد وجود ندارد. اکنون گوگل خدمات خود از جمله هوش مصنوعی DeepMind را به ارتش‌ها از جمله ارتش ایالات متحده و همان‌طور که تایم سال گذشته فاش کرد، اسرائیل می‌فروشد. بنابراین یکی از پرسش‌هایی که می‌خواستم از هاسابیس بپرسم، زمانی که به مناسبت انتخابش در فهرست TIME100 سال ۲۰۲۵ با او گفت‌وگو کردم، این بود: آیا برای رسیدن به هدف زندگی‌ات ناچار به مصالحه شدی؟

این گفت‌وگو برای روشنی و اختصار، ویرایش و خلاصه شده است.

اگر AGI ساخته شود، تأثیر بسیار بزرگی خواهد داشت. می‌توانی بهترین سناریوی ممکن را برایم ترسیم کنی؟ اگر AGI بسازیم، جهان چه شکلی خواهد بود؟

دلیل اینکه تمام عمرم را صرف کار روی هوش مصنوعی و AGI کرده‌ام این است که باور دارم اگر به‌درستی و با مسئولیت ساخته شود، سودمندترین فناوری تاریخ بشر خواهد بود. به نظرم اگر ۱۰ سال یا بیشتر به آینده نگاه کنیم، می‌توانیم از آن برای درمان شاید همه بیماری‌ها استفاده کنیم و در زمینه‌هایی مانند یافتن منابع انرژی جدید، چه همجوشی، چه باتری‌های بهینه یا مواد جدید مانند ابررساناها کمک بگیریم. فکر می‌کنم برخی از بزرگ‌ترین مشکلاتی که امروز جامعه ما با آن روبه‌رو است، مانند بحران اقلیم یا بیماری‌ها، با راه‌حل‌های مبتنی بر هوش مصنوعی بهبود خواهند یافت. بنابراین اگر ۱۰ سال به جلو برویم، به نظرم در چشم‌انداز خوش‌بینانه، ما در جهانی زندگی خواهیم کرد که در آن شکوفایی انسانی به حداکثر می‌رسد، به ستارگان سفر می‌کنیم و از فناوری‌هایی بهره می‌بریم که هوش مصنوعی در تحقق آن‌ها نقش دارد.

هاسابیس باور دارد که باید استانداردهای جهانی برای ساخت مدل‌های هوش مصنوعی ایجاد شود.

بگذار نمونه‌ای بزنم: بحران اقلیم. فکر نمی‌کنم بتوانیم آن را به روش دیگری حل کنیم جز با فناوری‌های بیشتر، از جمله فناوری‌های یاری‌گرفته از هوش مصنوعی مانند منابع انرژی جدید و امثال آن. بعید می‌دانم بتوانیم آن‌قدر سریع به اقدام جمعی معناداری برسیم که خودمان بدون فناوری مشکل را حل کنیم.

به‌بیان دیگر، اگر نمی‌دانستم چیزی به‌اندازه تحول‌آفرینی هوش مصنوعی در راه است، واقعاً برای جامعه امروز نگران می‌شدم. من عمیقاً باور دارم یکی از دلایلی که نسبت به ۵۰ سال آینده خوش‌بینم همین است: اگر هوش مصنوعی را به‌درستی بسازیم، می‌تواند در حل جدی‌ترین مشکلاتمان کمک کند. تقریباً مثل نیروی کمکی است و فکر می‌کنم ما امروز به این نیروی کمکی نیاز داریم.

در عین حال، بارها درباره ضرورت پرهیز از خطرات هشدار داده‌ای؛ می‌توانی بدترین سناریوی ممکن را ترسیم کنی؟

البته. به‌نظر من بدترین حالت را بارها در داستان‌های علمی‌تخیلی دیده‌ایم. من دو نگرانی اصلی دارم؛ نخست اینکه هوش مصنوعی فناوری فوق‌العاده‌ای است، اگر درست به کار رود. اما فناوری‌ای با دو کاربرد است و قدرتی باورناپذیر دارد. معنایش این است که افراد با نیت بد می‌توانند آن را برای اهداف زیان‌بار استفاده کنند. بنابراین یکی از چالش‌های بزرگ ما هم به عنوان یک حوزه علمی و هم در سطح اجتماعی، این است که چگونه دسترسی به این فناوری‌ها را برای کنشگران فراهم کنیم تا کارهای خارق‌العاده‌ای مانند درمان بیماری‌ها انجام دهند و در عین حال دسترسی افراد یا دولت‌های متخاصم را محدود کنیم؟ این معما واقعاً دشوار است.
دومین مسئله خودِ خطر AGI است؛ یعنی خطر ناشی از خود فناوری، به‌ویژه وقتی سامانه‌ها خودمختارتر و عامل‌محورتر می‌شوند؛ روندی که در سال‌های آینده رخ خواهد داد. چطور اطمینان حاصل کنیم که کنترل آن سامانه‌ها در دست ما باقی می‌ماند، بتوانیم کارشان را تفسیر و درک کنیم، محافظ‌هایی بگذاریم که سامانه‌های بسیار توانمندِ خودبهبودگر نتوانند از آن عبور کنند؟ این نیز چالشی بسیار سخت است. این دو، دو حوزه اصلی ریسک‌پذیری هوش مصنوعی هستند. اگر بتوانیم آن‌ها را درست مدیریت کنیم، به آینده‌ای شگفت‌انگیز خواهیم رسید.

سخنرانی هاسابیس در کنفرانس توسعه‌دهندگان Google I/O 2024

اما هنوز نگفتی بدترین سناریوی ممکن دقیقاً چیست و چه شکلی دارد؟

اگر در این زمینه شکست بخوریم، سامانه‌ها برای اهداف زیان‌بار به کار خواهند رفت؛ درست برعکس آنچه می‌خواهیم. مثلاً به‌جای یافتن درمان‌ها، همان سامانه‌ها ممکن است برای تولید سموم استفاده شوند. یعنی اگر اهداف سامانه را وارونه کنیم، همه کاربردهای خوب می‌توانند به کاربردهای مخرب تبدیل شوند. به همین دلیل من همیشه طرفدار همکاری بین‌المللی بوده‌ام. چون این سامانه‌ها، هرجا که ساخته شوند، می‌توانند در سراسر جهان توزیع شوند و بر همه تأثیر بگذارند. بنابراین به نظرم باید استانداردهای بین‌المللی درباره نحوه ساخت، طراحی، هدف‌گذاری و به‌کارگیری آن‌ها وجود داشته باشد.

وقتی گوگل در سال ۲۰۱۴ شرکت DeepMind را خرید، قراردادی امضا کردی که می‌گفت گوگل از فناوری شما برای مقاصد نظامی استفاده نخواهد کرد. از آن زمان، ساختار DeepMind تغییر کرده و اکنون فناوری آن به ارتش‌های مختلف از جمله آمریکا و اسرائیل فروخته می‌شود. تو از مزایای عظیم توسعه AGI سخن گفته‌ای؛ آیا برای رسیدن به فرصت ساخت آن فناوری، در اصول کاری خودت مصالحه کرده‌ای؟

نه، فکر نمی‌کنم چنین باشد. ما اخیراً برخی از سیاست‌ها را به‌روزرسانی کردیم تا بازتاب‌دهنده شرایط جدید و عدم اطمینان‌های ژئوپلیتیکی بزرگ‌تری باشند که در جهان به وجود آمده‌اند. متأسفانه دنیا جای خطرناک‌تری شده است. دیگر نمی‌توانیم فرض بگیریم که ارزش‌های دموکراتیک همیشه پیروز خواهند شد  و این موضوع اصلاً روشن نیست. تهدیدهای جدی وجود دارد؛ بنابراین فکر می‌کنم باید با دولت‌ها همکاری کنیم. همکاری با دولت‌ها همچنین به ما امکان می‌دهد با صنایع مهم و رگولاتوری‌شده دیگر مانند بانکداری، سلامت و غیره نیز کار کنیم. اصول ما تغییری نکرده‌اند. اصل بنیادین ما همیشه این بوده است: باید منافع را با دقت در برابر خطرات بسنجیم و این منافع باید به‌طور چشمگیر بر خطرات احتمالی برتری داشته باشند. این معیار سخت‌گیرانه‌ای است که برای هر کاری که می‌خواهیم انجام دهیم، بررسی می‌کنیم. البته باید به حقوق بشر و قوانین بین‌المللی نیز احترام بگذاریم و همچنان پابرجا هستند.

نکته دیگر اینکه، اکنون این فناوری به‌طور گسترده در دسترس است. سامانه‌های متن‌باز مانند DeepSeek  و Llama  شاید به اندازه مدل‌های اختصاصی برتری نداشته باشند، اما بسیار خوب عمل می‌کنند. وقتی چیزی متن‌باز است، عملاً یعنی کل دنیا می‌تواند از آن برای هر منظوری استفاده کند. بنابراین من میان فناوری عمومی‌شده و فناوری خاص تمایز قائل می‌شوم. در حوزه فناوری خاص، ما قصد داریم روی چیزهایی کار کنیم که در آن‌ها منحصربه‌فرد و بهترین در جهان هستیم، مانند دفاع سایبری و امنیت زیستی (Biosecurity)؛ یعنی حوزه‌هایی که به‌گمانم از نظر اخلاقی وظیفه داریم در آن‌ها کمک کنیم، چون در آن زمینه‌ها واقعاً برترینیم و فکر می‌کنم این موارد برای غرب بسیار مهم است.

در دنیای ایمنی هوش مصنوعی، بحث‌های زیادی درباره میزان احتمال بروز رفتارهایی مانند قدرت‌طلبی، فریب‌کاری، تلاش برای تضعیف انسان‌ها و فرار از کنترل توسط این سامانه‌ها وجود دارد. نظر قاطع تو چیست؟ آیا این مسیر پیش‌فرض تکامل این سیستم‌هاست، یا فقط یک خطر حاشیه‌ای است؟

احساس من این است که خطرات هنوز ناشناخته‌اند. در هر دو سوی این بحث، افراد برجسته‌ای مانند همکاران من و حتی برندگان جایزه تورینگ حضور دارند. فکر می‌کنم پاسخ درست جایی میان این دو دیدگاه قرار دارد، چون وقتی افراد بسیار باهوش در هر دو طرف چنین بحثی هستند، این شرایط به من می‌گوید که هنوز به اندازه کافی درباره‌اش نمی‌دانیم تا بتوانیم خطر را به‌طور کمی بسنجیم. ممکن است وقتی سامانه‌ها را بیشتر توسعه دهیم، متوجه شویم که کنترل آن‌ها بسیار ساده‌تر از آن چیزی است که فرض می‌کردیم. در بسیاری از موارد پیش‌تر هم چنین اتفاقی افتاده است. برخی شواهد نشان می‌دهند که اوضاع شاید کمی آسان‌تر از تصور بدبین‌ترین افراد باشد. اما از دید من همچنان خطر قابل‌توجهی وجود دارد و باید با دقت تحقیق کنیم تا میزان آن را بسنجیم و سپس پیش از وقوع هر مشکل، با دوراندیشی کامل برایش راه‌حل بیابیم؛ چون در مورد فناوری‌هایی با چنین قدرت و دگرگونی عظیمی، واکنش پس از حادثه می‌تواند فوق‌العاده خطرناک باشد.

چه چیزی باعث می‌شود شب‌ها از نگرانی بیدار بمانی؟

برای من، این مسئله استانداردها و همکاری بین‌المللی است؛ نه فقط بین کشورها بلکه میان شرکت‌ها و پژوهشگران، وقتی که به مراحل پایانی ساخت AGI نزدیک می‌شویم. به‌نظرم ما در آستانه آن نقطه‌ایم  و شاید پنج تا ده سال فاصله داشته باشیم. برخی می‌گویند زودتر خواهد بود و اگر چنین شود تعجب نمی‌کنم. این اتفاق مثل یک توزیع احتمالاتی است. در هر حال، زمان زیادی باقی نمانده است و مطمئن نیستم جامعه برای آن آماده باشد. باید درباره‌اش عمیق‌تر فکر کنیم؛ درباره همان مسائلی که پیش‌تر گفتم، از جمله کنترل‌پذیری سامانه‌ها و دسترسی به آن‌ها و اینکه چگونه اطمینان حاصل کنیم همه‌چیز به‌خوبی پیش می‌رود.

خودت را بیشتر دانشمند می‌دانی یا فناور؟ اینجا در لندن، دور از سیلیکون‌ولی، چگونه خودت را تعریف می‌کنی؟

من پیش از هر چیز خودم را یک دانشمند می‌دانم. تمام کاری که در زندگی‌ام انجام داده‌ام، در مسیر جست‌وجوی دانش و فهمیدن جهان پیرامون بوده است. از کودکی به این موضوع وسواس داشتم. برای من، ساخت هوش مصنوعی نوعی شیوه پاسخ دادن به همین پرسش‌هاست: نخست، ساختن ابزاری که خودش پدیده‌ای شگفت‌انگیز است و دربرگیرنده گزاره‌هایی درباره «هوش» و «آگاهی» است؛ یعنی مفاهیمی که خود از بزرگ‌ترین اسرار بشریت هستند. دوم، استفاده از همان ابزار برای کاوش در دنیای طبیعی اطرافمان؛ در شیمی، فیزیک و زیست‌شناسی. چه ماجرایی می‌تواند از این هیجان‌انگیزتر باشد؟

بنابراین خودم را اول دانشمند می‌دانم، و شاید در مرتبه دوم کارآفرین، چون این سریع‌ترین راه برای انجام دادن کارهاست و در نهایت، شاید فناور یا مهندس، چون در پایان نمی‌خواهی فقط در آزمایشگاه نظریه‌پردازی کنی؛ می‌خواهی در جهان واقعی تأثیرگذاری ملموسی داشته باشی.

بیایید کمی درباره جدول زمانی صحبت کنیم. سم آلتمن و داریو آمودئی اخیراً پیش‌بینی‌هایی کرده‌اند

خیلی کوتاه‌مدت، درست است؟

آلتمن می‌گوید انتظار دارد AGI در دوران ریاست‌جمهوری ترامپ ظهور کند و آمودئی می‌گوید ممکن است زودتر، حتی در سال ۲۰۲۶، اتفاق بیفتد.

ببین، تا حدی بستگی به تعریف تو از AGI دارد. فکر می‌کنم این تعریف به دلایل مختلفی مثل جذب سرمایه به‌قول‌معروف آب رفته است. هر کس ممکن است انگیزه خاصی برای این کار داشته باشد. اما تعریف ما از ابتدا تا امروز کاملاً ثابت مانده است: ایده داشتن تمام توانایی‌های شناختی انسان. آزمون من برای سنجش آن این است که آیا یک هوش مصنوعی می‌تواند همانند اینشتین، با مقدار اطلاعاتی که او در اوایل دهه ۱۹۰۰ در اختیار داشت، به نظریه نسبیت عام برسد؟ مسئله فقط حل کردن یک معادله ریاضی نیست، بلکه خلق فرضیه‌ای ارزشمند است. من تقریباً مطمئنم که به‌زودی سامانه‌هایی خواهیم داشت که بتوانند یکی از «مسائل جایزه هزاره» (Millennium Prize Problems) را حل کنند. اما آیا می‌توانند فرضیه‌هایی به همان اندازه جالب و نوآورانه ارائه دهند؟

«ما برخی از بهترین متخصصان امنیتی جهان را داریم که روی این مسائل کار می‌کنند تا مطمئن شویم سیستم‌ها حریم خصوصی را حفظ می‌کنند، داده‌ها حتی روی سرورهای ما رمزگذاری می‌شوند و همه این فناوری‌ها به‌درستی به کار می‌روند.»
دمیس هاسابیس، مدیرعامل  Google DeepMind

به‌طور خلاصه، تفاوتی که گفتی شبیه همان تمایز میان دانشمند و فناور است. همه فناوران می‌گویند AGI سامانه‌ای است که می‌تواند کار اقتصادی را بهتر یا ارزان‌تر از انسان انجام دهد.

توصیف بسیار خوبی است. شاید به همین دلیل است که من به وجه علمی بیشتر علاقه‌مندم، چون همیشه دانشمندان تاریخ را تحسین کرده‌ام و باور دارم آن‌ها کسانی هستند که واقعاً مرزهای دانش را جلو می‌برند؛ در مقابلِ صرفاً کاربردی کردن آن. البته هر دو بُعد علم و مهندسی برای جامعه حیاتی هستند؛ اما به نظرم آنچه فعلا در ]هوش مصنوعی وجود ندارد[ است، تولید فرضیه است.

بیایید جزئی‌تر بررسی کنیم. به نظر تو چقدر تا پژوهشگر خودکاری فاصله داریم که بتواند به‌طور معنادار در تحقیقات هوش مصنوعی مشارکت کند؟

فکر می‌کنم چند سال با آن فاصله داریم. دستیارهای کدنویسی دارند واقعاً خوب می‌شوند و به‌نظرم تا سال آینده بسیار عالی خواهند شد. ما در این زمینه سخت کار می‌کنیم. شرکت Anthropic بیشتر بر آن تمرکز دارد، در حالی که ما بیشتر روی جنبه‌های علمی کار می‌کنیم. هنوز [هوش مصنوعی] در حد بهترین برنامه‌نویسان نیست تا بتواند ساختار یک سیستم‌عامل را به زیبایی طراحی کند. آن بخش هنوز جای کار دارد، پس گمان می‌کنم چند سال دیگر با آن فاصله داریم.

تو در مدل‌های Gemini تأکید زیادی بر چندوجهی بودن داری و بر این‌که سیستم فقط در فضای زبانی عمل نکند بلکه در دنیای واقعی نیز حضور داشته باشد. بیش از دیگر آزمایشگاه‌ها روی این مسئله تمرکز کرده‌ای. چرا؟

به چند دلیل. نخست، چون معتقدم هوش واقعی نیازمند درک جهان فضایی-زمانی پیرامون ماست. چنین چیزی برای هر کار علمی واقعی‌ای که می‌خواهی انجام دهی نیز حیاتی است. همچنین فکر می‌کردم این کار باعث بهبود مدل‌های زبانی می‌شود و به‌گمانم نشانه‌هایی از آن را می‌بینیم، چون مدل را در بستر واقعی‌تری پایه‌گذاری کرده‌ایم. البته زبان به‌تنهایی بسیار فراتر از حد انتظار پیش رفته است؛ حتی بیش از آنچه خودم فکر می‌کردم ممکن باشد. در نهایت، مسئله کاربرد هم مطرح است، چون دو مورد کاربرد در ذهن دارم که به‌طور جدی روی آن‌ها کار می‌کنیم. یکی ایده «دستیار دیجیتال جهانی» (Universal Digital Assistant) است؛ ابزاری که در زندگی روزمره به تو کمک کند، بهره‌وری‌ات را افزایش دهد و کیفیت زندگی‌ات را بالا ببرد. دستیاری که فقط در رایانه نباشد، بلکه همراهت باشد؛ روی گوشی، عینک یا هر دستگاه دیگر و همیشه مفید باشد. برای آنکه چنین چیزی کار کند، باید جهان اطراف را درک کند و آن را پردازش کند. مورد دوم، رباتیک است؛ برای رباتیک در دنیای واقعی دقیقاً همین ویژگی لازم است. باید بتواند بافت فضایی پیرامونش را بفهمد. انسان‌ها چندوجهی‌اند، درست است؟ ما با صفحه‌نمایش‌ها کار می‌کنیم، بینایی داریم، ویدیو می‌بینیم، تصویر خلق می‌کنیم و به صدا گوش می‌دهیم. بنابراین یک سامانه هوش مصنوعی هم باید بتواند این جنبه‌ها را بازتاب دهد تا به کامل‌ترین شکل با ما تعامل کند.

به گفته دمیس هاسابیس AGI  چنان قدرت عظیمی دارد که دانشمندان باید تا حد ممکن خطرات بالقوه آن را به‌صورت کمی مشخص کنند.

«مردیت ویتیکر» (Meredith Whittaker) رئیس سیگنال، انتقاد مهمی به همین مفهوم «دستیار جهانی» مطرح کرده است؛ او می‌گوید این کمک رایگان به دست نمی‌آید، چون در ازای آن، کاربر باید حجم زیادی از داده‌های شخصی‌اش را در اختیار سامانه بگذارد. برای مفید بودن، باید تقریباً به همه‌چیز درباره زندگی‌ات دسترسی داشته باشد. گوگل شرکتی است که از طریق جمع‌آوری داده‌های شخصی و تبلیغات هدفمند درآمد دارد. درباره پیامدهای حریم خصوصی این نوع عامل‌ها چطور فکر می‌کنی؟

مردیت درست می‌گوید. من کار او در سیگنال را تحسین می‌کنم. به نظرم پیش از هر چیز، چنین سامانه‌هایی باید کاملاً بر اساس رضایت کاربر و Opt-in باشند.

اما ما در حال حاضر هم به بسیاری از چیزها مثل ردیابی دیجیتال رضایت می‌دهیم.

بله، در نهایت این انتخاب شماست؛ اما طبیعی است که مردم از آن استفاده خواهند کرد، چون مفید است. به نظرم این فناوری تنها در صورتی موفق می‌شود که کاربر کاملاً مطمئن باشد آن دستیار «مال او» است. باید برایت قابل اعتماد باشد، چون مثل یک دستیار واقعیِ انسانی تنها زمانی مفید است که تو را خوب بشناسد. دستیارانم من را بهتر از خودم می‌شناسند و به همین دلیل همکاری‌مان عالی است. فکر می‌کنم همین سطح از کارایی را کاربران از دستیار دیجیتالشان انتظار دارند.

اما باید مطمئن باشی که داده‌ها واقعاً به‌صورت جداگانه و ایمن نگهداری می‌شوند. ما برخی از بهترین متخصصان امنیت جهان را داریم که روی این موضوع کار می‌کنند تا اطمینان حاصل شود که همه‌چیز با حفظ حریم خصوصی، حتی در سرورهای ما رمزگذاری‌شده و به شیوه‌ای ایمن انجام می‌شود. ما سخت روی این فناوری‌ها کار می‌کنیم تا وقتی پروژه «Astra» که نسخه دستیار ماست آماده عرضه عمومی شد، همه‌چیز مهیا باشد. فکر می‌کنم در نهایت تصمیم با مصرف‌کننده خواهد بود و کاربران ترجیح خواهند داد از سامانه‌هایی استفاده کنند که حفظ حریم خصوصی را تضمین می‌کنند.

همچنین فکر می‌کنم «محاسبات لبه‌ای» و «مدل‌های لبه‌ای» در این زمینه بسیار اهمیت خواهند داشت و همین یکی از دلایلی است که ما تا این اندازه به ساخت مدل‌های کوچک اما بسیار کارآمد اهمیت می‌دهیم؛ مدل‌هایی که بتوانند روی یک دستگاه مجزا اجرا شوند.

نمی‌دانم از نظر شما چقدر طول می‌کشد تا شاهد تأثیرات عمده این فناوری‌ها بر بازار کار باشیم. اما اگر یا وقتی که چنین اتفاقی بیفتد، به‌طور گسترده‌ای موجب آشوب سیاسی خواهد شد، درست است؟ آیا برنامه‌ای برای هدایت این آشوب دارید؟

من با اقتصاددانان زیادی درباره این موضوع صحبت می‌کنم. فکر می‌کنم در وهله اول، لازم است متخصصان این حوزه کار جدی‌تری در این زمینه انجام دهند. وقتی با اقتصاددانان صحبت می‌کنم، مطمئن نیستم که کار کافی در این زمینه انجام می‌شود یا نه. ما در حال ساخت سیستم‌های عامل‌محور هستیم چون مفیدتر خواهند بود. این مسئله به‌گمانم بر مشاغل نیز تأثیر خواهد گذاشت؛ هرچند تصور می‌کنم باعث ایجاد مشاغل جدیدی هم می‌شود که اکنون وجود ندارند. مشاغلی که در آن شما مجموعه‌ای از عامل‌ها را مدیریت می‌کنید که کارهای روزمره یا پژوهش‌های پس‌زمینه را انجام می‌دهند، اما شما همچنان مقاله نهایی را می‌نویسید یا پژوهش نهایی را تولید می‌کنید یا ایده‌اش را می‌دهید یا اینکه اصلاً چرا دارید روی آن چیزها تحقیق می‌کنید. بنابراین فکر می‌کنم در مرحله بعد، انسان‌ها با کمک این ابزارهای شگفت‌انگیز قدرت‌مندتر می‌شوند، به‌شرطی که بلد باشید از آن‌ها درست استفاده کنید.

بله، آشوب و دگرگونی وجود خواهد داشت، اما در مجموع به‌نظرم نتیجه بهتر خواهد بود؛ مشاغل بهتر، شاداب‌تر و رضایت‌بخش‌تر خواهند شد و کارهای یکنواخت از میان خواهند رفت. در گذشته هم فناوری همین مسیر را طی کرده است. اما وقتی به سطح AGI برسیم؛ یعنی زمانی که می‌تواند کارهای بسیار زیادی انجام دهد، پرسش این است که آیا می‌توانیم دستاوردهای حاصل از افزایش بهره‌وری را به‌طور عادلانه و گسترده در سراسر جهان توزیع کنیم؟ و پس از آن، مسئله معنا و هدف پیش می‌آید. این همان پرسش فلسفی بعدی است و به‌گمانم باید فیلسوفان بزرگ از همین امروز به آن بیندیشند.

وقتی آخرین بار در سال ۲۰۲۲با شما مصاحبه کردم، کمی درباره این موضوع صحبت کردیم و شما گفتید: «اگر در جهانی با وفور رادیکال (Radical Abundance) زندگی کنیم، باید فضای کمتری برای نابرابری وجود داشته باشد و راه‌های کمتری برای شکل‌گیری آن. این یکی از پیامدهای مثبت تحقق چشم‌انداز AGI است.» اما در چنین جهانی، هنوز هم افرادی خواهند بود که ثروت را در اختیار دارند، کسانی که ندارند و کارگرانی که ممکن است دیگر شغلی نداشته باشند. به نظر می‌رسد تحقق چشم‌انداز وفور رادیکال مستلزم نوعی انقلاب سیاسی بزرگ است تا به مرحله‌ای برسیم که آن ثروت بازتوزیع شود. آیا می‌توانید چشم‌اندازتان را در این باره شرح دهید؟

من شخصاً زمان زیادی صرف این موضوع نکرده‌ام، هرچند احتمالاً باید بیشتر به آن بپردازم و باز هم فکر می‌کنم اقتصاددانان برجسته باید جدی‌تر درباره این مسئله فکر کنند. منظورم از «وفور رادیکال» این است که چیزهایی مانند همجوشی هسته‌ای، باتری‌های بهینه یا ابررساناها را حل کرده باشید. فرض کنید با کمک هوش مصنوعی هر سه مورد را حل کرده‌اید؛ این یعنی هزینه انرژی عملاً به صفر می‌رسد، انرژی پاک و تجدیدپذیر خواهد بود. این یعنی ناگهان مشکل دسترسی به آب نیز از بین می‌رود، چون می‌توان نیروگاه‌های نمک‌زدایی ساخت که کار پیچیده‌ای نیست و فقط به انرژی و آب دریا نیاز دارد. همچنین به این معناست که تولید سوخت موشک نیز ساده می‌شود؛ چون می‌توان با روش‌های مشابه، هیدروژن و اکسیژن را از آب دریا جدا کرد. در نتیجه، بسیاری از چیزهایی که اساس جهان سرمایه‌داری امروز را تشکیل می‌دهند، دیگر معتبر نیستند زیرا پایه آن‌ها هزینه انرژی، هزینه منابع و کمبود منابع است. اما اگر اکنون بتوانید به فضا دسترسی داشته باشید و منابع سیارک‌ها را استخراج کنید؛ هرچند ساخت زیرساخت‌های آن چند دهه طول می‌کشد، آن‌گاه باید وارد یک دوران اقتصادی تازه شویم.

دمیس هاسابیس: «بسیاری از چیزهایی که امروز محدود هستند، در نهایت باعث می‌شوند جهان یک بازی حاصل‌جمع صفر باشد. من به جهانی فکر می‌کنم که دیگر چنین نیست.»

اما این توضیح، مسئله نابرابری را حل نمی‌کند، درست است؟ هنوز هم ثروت از استخراج آن سیارک‌ها به‌دست می‌آید. زمین هم محدود است.

بله، بسیاری از چیزها امروز محدود هستند و همین باعث می‌شود در نهایت یک بازی حاصل‌جمع صفر باشد. اما من به دنیایی فکر می‌کنم که دیگر چنین نباشد، حداقل از نظر منابع. البته هنوز پرسش‌های دیگری باقی می‌ماند، مثل اینکه آیا مردم همچنان به دنبال قدرت و چیزهای دیگر خواهند بود؟ احتمالاً بله. بنابراین آن مسائل باید از نظر سیاسی حل‌وفصل شوند. اما حداقل یکی از مشکلات اساسی را حل کرده‌اید، یعنی در جهانی با منابع محدود، همه‌چیز در نهایت به یک بازی حاصل‌جمع صفر تبدیل می‌شود. این تنها منبع درگیری نیست، اما منبع عمده‌ای از درگیری‌ها و نابرابری‌هاست، اگر تا ریشه بررسی‌اش کنیم. منظورم از «وفور رادیکال» این است: دیگر به‌طور معنادار در دنیایی محدود و مبتنی بر منابع زندگی نمی‌کنیم. ولی احتمالاً لازم است نوعی فلسفه سیاسی جدید برای آن پدید آید؛ از این بابت تقریباً مطمئنم.

ما در دنیای غرب از طریق عصر روشنگری به دموکراسی رسیدیم، تا حد زیادی چون شهروندان می‌توانستند نیروی کار خود را پس بگیرند و تهدید کنند که دولت را سرنگون خواهند کرد، درست است؟ اگر به AGI برسیم، به نظر می‌رسد هر دو ابزار را از دست می‌دهیم و این می‌تواند برای دموکراسی بد باشد.

شاید. شاید لازم باشد به چیزی فراتر و بهتر از دموکراسی تحول پیدا کنیم، نمی‌دانم. چون دموکراسی هم مشکلاتی دارد و هیچ عصای جادویی نیست. فکر می‌کنم چرچیل بود که گفت: دموکراسی بدترین نوع حکومت است، به‌جز سایر انواع آن. شاید چیزی بهتر وجود داشته باشد. می‌توانم بگویم از نظر فناورانه چه اتفاقی می‌افتد: اگر کار را درست انجام دهیم، باید به «وفور رادیکال» برسیم. اگر چند مسئله بنیادی را حل کنیم، آنچه من «گره ریشه‌ای» (Root-Node) می‌نامم و پس از آن، مسئله فلسفه سیاسی مطرح می‌شود. گمان می‌کنم این همان چیزی است که بسیاری آن را دست‌کم گرفته‌اند. ما به فلسفه جدیدی برای شیوه زندگی نیاز خواهیم داشت.

گزارش حاضر در «ویژه‌نامه ۲۰۲۵ هوش مصنوعی مجله تایم» منتشر و در «رسانه تخصصی هوش مصنوعی هوشیو» به زبان فارسی نیز ترجمه شده و در دسترس مخاطبان این حوزه قرار گرفته است.

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]