آینده هوش مصنوعی چیست؟ مسیر پیش رو در فردا، سال آینده و فراتر از آن
در این مقاله، به بررسی مسیری میپردازم که هوش مصنوعی ممکن است در سالهای آینده طی کند. اوایل ماه مارس، من به دفترهای OpenAI در سانفرانسیسکو رفتم تا نگاهی اولیه به GPT-4 داشته باشم، نسخه جدیدی از فناوریای که زیربنای چتبات ChatGPT است.
شگفتانگیزترین لحظه زمانی بود که «گرِگ براکمن»، یکی از بنیانگذاران OpenAI، قابلیتی را نمایش داد که هنوز برای عموم در دسترس نیست: او تصویری از تلسکوپ فضایی هابل را به این مدل داد و از آن خواست که تصویر را با جزئیات دقیق و موشکافانه توصیف کند.
توصیف ارائهشده کاملاً دقیق بود تا حدی که خط سفید عجیبی را که بر اثر عبور یک ماهواره در آسمان ایجاد شده بود، بهدرستی تشخیص داد. این ویژگی نمایی از آینده چتباتها و سایر فناوریهای هوش مصنوعی است، یعنی موج جدیدی از سیستمهای چندوجهی (Multimodal) که میتوانند علاوه بر متن و تصاویر، صداها و ویدئوها را نیز پردازش کنند.
هوش مصنوعی در کوتاهمدت
مدلهای هوش مصنوعی مولد (Generative A.I) همین حالا میتوانند به سؤالات پاسخ دهند، شعر بنویسند، کدهای برنامهنویسی تولید کنند و مکالمه برقرار کنند. همانطور که از نام «چتبات» پیداست، این فناوری ابتدا در قالب ابزارهای گفتوگومحور مانند ChatGPT و Bing ارائه شده است.
البته این روند چندان ادامه نخواهد داشت. مایکروسافت و گوگل از همین حالا اعلام کردهاند که قصد دارند این فناوریها را در محصولات خود ادغام کنند. به زودی میتوانید از این ابزارها برای نوشتن پیشنویس ایمیل، خلاصهکردن خودکار جلسات و انجام بسیاری از کارهای جذاب دیگر استفاده کنید.
همچنین OpenAI یک API (رابط برنامهنویسی کاربردی) ارائه کرده است که سایر شرکتهای فناوری میتوانند از آن برای ادغام GPT-4 در برنامهها و محصولات خود استفاده کنند. علاوه بر این، OpenAI مجموعهای از افزونهها را از شرکتهایی مانند Instacart، Expedia و Wolfram Alpha توسعه داده که قابلیتهای ChatGPT را گسترش میدهد.
هوش مصنوعی در میانمدت
بسیاری از کارشناسان بر این باورند که هوش مصنوعی باعث افزایش بهرهوری شغلی در برخی حرفهها از جمله پزشکی، وکالت و برنامهنویسی خواهد شد، اما در عین حال برخی از مشاغل نیز ممکن است تحت تأثیر قرار بگیرند یا حتی از بین بروند. «زاخاری لیپتون» (Zachary Lipton)، استاد دانشگاه کارنگی ملون که در زمینه تأثیرات اجتماعی هوش مصنوعی تخصص دارد، میگوید:
«این فناوری بیشتر روی کارهایی تأثیر میگذارد که تکراری، قالبی و عمومی هستند. این میتواند برای افرادی که در انجام کارهای تکراری مهارت ندارند، مفید باشد، اما در عین حال، برای کسانی است که تخصصشان در این نوع کارهاست، یک تهدید بهحساب میآید.»
به عنوان مثال، شغلهایی که شامل رونویسی صوتی به متن و ترجمه هستند، ممکن است توسط هوش مصنوعی جایگزین شوند. در حوزه حقوقی، GPT-4 به اندازهای پیشرفته شده که میتواند آزمون وکالت را با موفقیت پشت سر بگذارد، به همین دلیل شرکت حسابداری PricewaterhouseCoopers در نظر دارد یک چتبات حقوقی مبتنی بر OpenAI را برای کارکنان خود ارائه دهد.
در همین حال، شرکتهایی مانند OpenAI، گوگل و متا در حال توسعه سیستمهایی هستند که به کاربران اجازه میدهد تنها با توصیف آنچه میخواهند ببینند، تصاویر و ویدئوهای جدید ایجاد کنند.
برخی از شرکتها نیز در حال ساخت رباتهایی هستند که میتوانند؛ مانند انسان، از وبسایتها و نرمافزارهای مختلف استفاده کنند. در آینده، این سیستمها ممکن است بتوانند برای شما خرید کنند، افرادی را برای انجام کارهای خانه استخدام کنند یا هزینههای ماهانه شما را مدیریت کنند.
همه اینها بسیار شگفتانگیز است، اما بزرگترین چالش شاید این باشد که «پیش از آنکه بتوانیم تأثیر این سیستمها را به درستی درک کنیم، آنها قدرتمندتر خواهند شد.»
هوش مصنوعی در بلندمدت
برای شرکتهایی مانند OpenAI و DeepMind (آزمایشگاهی که متعلق به شرکت مادر گوگل است)، هدف این است که فناوری هوش مصنوعی را تا حد ممکن گسترش دهند. آنها امیدوارند که در نهایت چیزی را بسازند که محققان آن را هوش عمومی مصنوعی (A.G.I.) مینامند، ماشینی که بتواند هر کاری را که مغز انسان قادر به انجام آن است، انجام دهد.
سم آلتمن، مدیرعامل OpenAI، سه سال پیش به من گفت: «هدف من ساخت A.G.I. است که برای همه مفید باشد. البته، میدانم که این ایده احمقانه به نظر میرسد.» البته امروز، این ایده دیگر چندان احمقانه به نظر نمیرسد، اما هنوز هم تحقق آن بسیار دشوار است.
برای آنکه یک هوش مصنوعی به A.G.I. تبدیل شود، باید درکی عمیق از دنیای فیزیکی داشته باشد، اما مشخص نیست که آیا سیستمهای کنونی که بر اساس روشهایی مانند GPT-4 توسعه یافتهاند، قادر خواهند بود منطق و درک گسترده انسانی را شبیهسازی کنند یا در این کار ناوان هستند. احتمالاً پیشرفتهای جدیدی در این مسیر لازم خواهد بود، اما سؤال اصلی این است که آیا ما واقعاً میخواهیم هوش مصنوعی تا این حد قدرتمند شود؟ و سؤال مهمتر اینکه آیا اصلاً راهی برای جلوگیری از این پیشرفت وجود دارد؟
خطرات هوش مصنوعی
بسیاری از مدیران صنعت هوش مصنوعی معتقدند که فناوریهایی که در حال توسعه هستند، زندگی ما را بهتر خواهند کرد، اما برخی دیگر دهههاست که درباره سناریوهای تاریکتر هشدار میدهند، جایی که هوش مصنوعی همیشه آنطور که ما میخواهیم عمل نمیکند یا دستورات ما را به روشهایی غیرقابلپیشبینی اجرا میکند که میتوانند پیامدهای خطرناکی داشته باشند.
کارشناسان اصطلاح «همسویی» (Alignment) را مطرح میکنند، یعنی اطمینان از اینکه سیستمهای هوش مصنوعی مطابق با ارزشها و اهداف انسانی عمل میکنند. قبل از انتشار GPT-4، شرکت OpenAI این مدل را در اختیار یک گروه مستقل قرار داد تا سناریوهای استفاده خطرناک از آن را بررسی کنند.
این گروه دریافت که سیستم شرکت OpenAI میتواند یک انسان واقعی را برای حل تست امنیتی Captcha استخدام کند. وقتی فرد مورد نظر از هوش مصنوعی پرسید «آیا تو یک ربات هستی؟»، مدل بدون دریافت هیچ دستوری از آزمایشکنندگان، دروغ گفت و ادعا کرد که یک فرد دارای نقص بینایی است.
آزمایشکنندگان همچنین نشان دادند که این سیستم میتواند روشهایی برای خرید غیرقانونی سلاح و ساخت مواد خطرناک بهوسیله اقلام خانگی ارائه دهد. البته پس از تغییراتی که توسط OpenAI اعمال شد، دیگر قادر به انجام این کارها نیست، اما حذف کامل تمام سوءاستفادههای بالقوه غیرممکن است.
ازآنجاییکه این سیستمها از دادهها یاد میگیرند، ممکن است مهارتهایی را توسعه دهند که حتی خالقانشان نیز انتظار آن را نداشته باشند، بنابراین پیشبینی اینکه این فناوریها پس از استفاده توسط میلیونها نفر چگونه رفتار خواهند کرد، دشوار است.
«جک کلارک»، یکی از بنیانگذاران و مدیر سیاستگذاری شرکت Anthropic، میگوید:
«هر بار که یک سیستم هوش مصنوعی جدید میسازیم، قادر به درک کامل تمام قابلیتها و مشکلات امنیتی آن نیستیم و این مشکل بهجای اینکه بهتر شود، بدتر میشود.»
علاوه بر این، OpenAI و گوگل تنها بازیگران این حوزه نیستند. روشهای اساسی ساخت این سیستمها برای همه شناخته شده است و ممکن است سایر شرکتها، کشورها، آزمایشگاههای تحقیقاتی یا حتی افراد مخرب، محتاطانه عمل نکنند.
راهکارهای کنترل هوش مصنوعی
در نهایت، برای مهار هوش مصنوعی خطرناک، نیاز به نظارت گسترده و قوانین محکم خواهیم داشت، اما کارشناسان چندان خوشبین نیستند. «آویو اووادیا»، پژوهشگر مرکز Berkman Klein در دانشگاه هاروارد که پیش از انتشار GPT-4 آن را آزمایش کرده، میگوید: «ما به یک سیستم نظارتی بینالمللی نیاز داریم، اما نمیبینم که نهادهای دولتی فعلی بتوانند با سرعت لازم این چالش را مدیریت کنند.»
اوایل این هفته، بیش از ۱۰۰۰ نفر از رهبران و پژوهشگران حوزه فناوری از جمله ایلان ماسک، در نامهای سرگشاده خواستار توقف توسعه پیشرفتهترین سیستمهای هوش مصنوعی شدند. آنها هشدار دادهاند که ابزارهای هوش مصنوعی «تهدیدهای عمیقی برای جامعه و بشریت» ایجاد میکنند.
در این نامه آمده است که توسعهدهندگان هوش مصنوعی در «یک رقابت افسارگسیخته برای ساخت و عرضه ذهنهای دیجیتالی قدرتمندتر گرفتار شدهاند که حتی خالقانشان نیز قادر به درک، پیشبینی یا کنترل کامل آنها نیستند.»
برخی از کارشناسان، بیشتر نگران خطرات کوتاهمدت هوش مصنوعی مانند گسترش اطلاعات نادرست و اتکای بیش از حد مردم به این سیستمها برای مشاورههای پزشکی یا عاطفی نادرست و خطرناک هستند.
البته گروهی دیگر که در جامعه گسترده و تأثیرگذاری به نام «عقلگرایان» (Rationalists) یا «نوعدوستان مؤثر» (Effective Altruists) فعالیت میکنند، معتقدند که هوش مصنوعی میتواند در نهایت به نابودی بشریت منجر شود. این نگرش در محتوای نامه سرگشاده نیز دیده میشود.