راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی
ورود هوش مصنوعی به جریان اصلی
تحقیقات مربوط به هوش مصنوعی معمولاً با هیاهویی درباره ظرفیتها و خطرات این فناوری همراه است. اما چه آنهایی که مرزهای تواناییهای ممکن را جابهجا میکنند و چه آنهایی که خواستار احتیاط هستند، ظاهراً بر سر یک موضوع توافق دارند. نسل جدید هوش مصنوعی مولد، بیش از هر ابزار هوش مصنوعی پیش از خود، جامعه را تحتتأثیر قرار داده است.
این لحظه برای هوش مصنوعی بیسابقه است. مدلهای زبانی قدرتمند به طور ناگهانی جهشی بزرگ در تواناییهای خود داشتهاند و اکنون میتوانند حجم زیادی از نوشتههای معقول تولید کنند؛ متنهایی که اغلب از نوشته انسان قابلتشخیص نیستند. آنها میتوانند به پرسشهای فنی پیچیده نیز پاسخ دهند، از جمله پرسشهایی که معمولاً از وکلا و برنامهنویسان پرسیده میشود. حتی میتوانند به آموزش بهتر سایر مدلهای هوش مصنوعی نیز کمک کنند.
در مرکز این تحولات، مدلهای زبانی بزرگ و انواع دیگر هوش مصنوعی مولد قرار دارند که میتوانند در پاسخ به فرمانهای انسانی، متن و تصویر تولید کنند. از سال ۲۰۲۲ استارتاپهایی که با پشتیبانی غولهای فناوری فعالیت میکنند، روند عرضه این مدلهای مولد را شتاب بخشیدهاند و دسترسی میلیونها نفر به چتباتهایی قانعکننده اما اغلب نادقیق را امکانپذیر کردهاند؛ درحالیکه اینترنت را با نوشتهها و تصاویر تولیدشده توسط هوش مصنوعی پر کردهاند، به شکلی که میتواند جامعه را دگرگون کند.
داستان هوش مصنوعی چرخهای تکرارشونده از موجهای علاقه و سرمایهگذاری است که پس از برآوردهنشدن انتظارات بزرگ، وارد رکود میشود. در دهه ۱۹۵۰، شوروشوق زیادی برای ساخت ماشینهایی وجود داشت که بتوانند هوشی در سطح انسان نشان دهند. خود اصطلاح «هوش مصنوعی» در کارگاهی تابستانی در کالج Dartmouth در New Hampshire در سال ۱۹۵۶ ابداع شد. اما آن هدف بلندپروازانه محقق نشد؛ زیرا سختافزار و نرمافزار رایانهای بهسرعت با محدودیتهای فنی روبهرو شدند. نتیجه آن، بهوجودآمدن زمستانهای هوش مصنوعی در دهه ۱۹۷۰ و اواخر دهه ۱۹۸۰ بود؛ دورانی که سرمایهگذاری و علاقه شرکتها بهشدت کاهش یافت.
دهه گذشته میلادی را میتوان بهنوعی تابستان هوش مصنوعی دانست؛ هم برای پژوهشگرانی که به دنبال بهبود توانایی یادگیری هوش مصنوعی بودند و هم برای شرکتهایی که قصد داشتند این فناوری را به کار گیرند. به لطف ترکیبی از پیشرفتهای عظیم در قدرت پردازش رایانه و دردسترسبودن دادهها، رویکردی که از ساختار مغز الهام گرفته بود توانست به موفقیتهای زیادی برسد. قابلیتهای تشخیص صدا و چهره در گوشیهای هوشمند معمولی با چنین مدلهای شبکه عصبی کار میکنند. همچنین مدلهای هوش مصنوعی قدرتمندی که بهترین بازیکنان جهان را در بازی باستانیGo شکست دادهاند و چالشهای علمی بسیار دشوار را حل کردهاند؛ مانند پیشبینی ساختار تقریباً همه پروتئینهای شناختهشده، از همین روش بهره میبرند.
تحولات پژوهشی در این حوزه معمولاً طی سالها شکلگرفتهاند و ابزارهای جدید هوش مصنوعی برای انجام کارهای تخصصی یا در قالبهایی نامرئی در محصولات و خدمات تجاری موجود مانند موتورهای جستوجوی اینترنتی، به کار رفتهاند.
اما طی دو سال گذشته مدلهای هوش مصنوعی مولد که آنها نیز از شبکههای عصبی استفاده میکنند، به مرکز توجه صنعت فناوری تبدیل شدهاند؛ صنعتی که میخواهد این مدلها را با سرعت از آزمایشگاههای شرکتها بیرون آورده و در اختیار عموم قرار دهد. نتیجه این روند آشفته، گاه چشمگیر و اغلب غیرقابلپیشبینی بوده است؛ زیرا افراد و سازمانها به آزمایش این مدلها میپردازند.
«تیمنیت گبرو» (Timnit Gebru)، بنیانگذار Distributed AI Research Institute در کالیفرنیا، میگوید: «واقعاً انتظار چنین انفجاری از مدلهای مولد را نداشتم. هرگز چنین افزایش سریع و گستردهای در تعداد محصولات ندیدهام.»
جرقه این انفجار را OpenAI زد؛ زمانی که در ۳۰ نوامبر ۲۰۲۲ نسخه اولیه ChatGPT را منتشر کرد و تنها طی پنج روز یک میلیون کاربر جذب کرد. مایکروسافت، سرمایهگذار چندمیلیارددلاری OpenAI، در فوریه ۲۰۲۳ با ارائه یک چتبات مجهز به همان فناوری ChatGPT در موتور جستوجوی Bing، این روند را ادامه داد که بهعنوان حرکتی آشکار برای به چالش کشیدن سلطه طولانیمدت گوگل در بازار موتورهای جستوجو شناخته میشود.
این اقدام باعث شد گوگل نیز در مارس ۲۰۲۳ چتبات خود به نام Bard (که بعدها به Gemini تغییر کرد) را معرفی کند. گوگل همچنین ۳۰۰ میلیون دلار در Anthropic، استارتاپی که توسط کارکنان سابق OpenAI تأسیس شد، سرمایهگذاری کرده است. شرکتی که چتبات خود به نام Claude را از مارس ۲۰۲۳ در اختیار گروه محدودی از افراد و شرکای تجاری قرار داد و سپس به صورت عمومی عرضه کرد. شرکتهای بزرگ فناوری چین، مانند Baidu و Alibaba نیز وارد رقابت شدهاند و چتباتهای هوش مصنوعی را در موتورهای جستوجو و سایر خدمات خود ادغام کردهاند.
این مدلهای مولد اکنون بر حوزههایی مانند آموزش تأثیر گذاشتهاند؛ بهطوری که برخی مدارس ChatGPT را ممنوع کردهاند، چون میتواند مقالههای کامل و غیرقابلتشخیص نسبت به نوشته دانشآموز تولید کند. توسعهدهندگان نرمافزار نشان دادهاند که ChatGPT میتواند خطاهای کدنویسی را پیدا و اصلاح کند و حتی برنامهها را از صفر بنویسد. مشاوران املاک از ChatGPT برای تولید آگهیهای فروش و پستهای شبکههای اجتماعی استفاده کردهاند و شرکتهای حقوقی چتباتهای هوش مصنوعی را برای تهیه پیشنویس قراردادهای حقوقی به کار گرفتهاند. حتی آزمایشگاههای پژوهشی دولت آمریکا در حال بررسی این هستند که فناوریOpenAI چگونه میتواند با سرعت مقالات منتشرشده را غربال کند تا به طراحی آزمایشهای علمی جدید کمک کند.
طبق گزارش تحلیلگران Goldman Sachs، حدود ۳۰۰ میلیون شغل تماموقت ممکن است حداقل تا حدی تحتتأثیر خودکارسازی ناشی از هوش مصنوعی مولد قرار گیرند؛ اما همانطور که آنها نوشتهاند، این موضوع به این بستگی دارد که «هوش مصنوعی مولد تا چه حد به تواناییهای وعدهدادهشده خود عمل کند.» گزارهای آشنا که پیشتر نیز در چرخههای رونق و رکود هوش مصنوعی شنیده شده است.
آنچه روشن است، این است که خطرات واقعی هوش مصنوعی مولد نیز با سرعتی سرسامآور رخ میدهند. ChatGPT و دیگر چتباتها اغلب اشتباهات را واقعی ارائه میدهند و رویدادها یا مقالات کاملاً ساختگی را ذکر میکنند. استفاده از ChatGPT همچنین منجر به رسواییهای نقض حریم خصوصی شده است؛ از جمله افشای دادههای محرمانه شرکتها و حتی دسترسی کاربران ChatGPT به تاریخچه چت و اطلاعات پرداخت دیگران.
هنرمندان و عکاسان نیز نگرانیهای بیشتری مطرح کردهاند؛ از جمله اینکه آثار تولیدشده توسط هوش مصنوعی ممکن است معیشت آنان را تهدید کند، درحالیکه برخی شرکتها مدلهای مولد را با استفاده از آثار همان هنرمندان آموزش میدهند؛ بدون اینکه قوانین حق نشر را رعایت کنند. تصاویر تولیدشده توسط هوش مصنوعی میتواند به انتشار گسترده اطلاعات نادرست منجر شود؛ همانطور که تصاویر جعلی از بازداشت دونالد ترامپ و تصویری از پاپ فرانسیس با کت سفید براق، در اینترنت وایرال شد. شمار زیادی از مردم فریب خوردند و باور کردند واقعی است.
گبرو بسیاری از این خطرات احتمالی را پیشبینی کرده بود؛ زمانی که او و همکارانش در سال ۲۰۲۰ مقالهای بنیادین درباره خطرات مدلهای زبانی بزرگ نوشتند و او یکی از رهبران تیم اخلاق هوش مصنوعی گوگل بود. گبرو میگوید که پس از آنکه مدیران گوگل از او خواستند مقاله را پس بگیرد، مجبور به ترک شرکت شد؛ هرچند گوگل استعفای او را «خروج داوطلبانه» توصیف کرده است. گبرو میگوید: «این وضعیت شبیه یک چرخه هیجانزده دیگر است، اما تفاوت این است که اکنون محصولات واقعی وجود دارند که آسیبزا هستند.»
فناوری هوش مصنوعی مولد بر پایه یک دهه پژوهش بنا شده است؛ پژوهشهایی که تواناییهای هوش مصنوعی را در تشخیص تصویر، دستهبندی مقالات بر اساس موضوع و تبدیل گفتار به متن به طور چشمگیری بهبود دادهاند. «آرویند نارایانان» (Arvind Narayanan) از دانشگاه پرینستون میگوید: «با معکوس کردن این روند، اکنون میتوان تصاویر مصنوعی بر اساس یک توضیح، مقالههایی درباره یک موضوع مشخص یا نسخه صوتی متنهای نوشتاری تولید کرد.» او میگوید: «هوش مصنوعی مولد واقعاً امکان انجام کارهای جدید زیادی را فراهم کرده است.» بااینحال، ارزیابی این فناوری دشوار است.
مدلهای زبانی بزرگ شاهکارهای مهندسی هستند که از حجم عظیمی از توان پردازشی در مرکز دادههای شرکتهایی مانند مایکروسافت و گوگل استفاده میکنند. آنها به مقدار عظیمی از دادههای آموزشی نیاز دارند؛ دادههایی که شرکتها اغلب آنها را از مخازن اطلاعات عمومی در اینترنت، مانند ویکیپدیا، جمعآوری میکنند. این فناوری همچنین به تعداد زیادی نیروی انسانی متکی است تا در طول فرایند آموزش، بازخورد ارائه دهند و هوش مصنوعی را در مسیر درست هدایت کنند.
«هیجان و هیاهوی انتقادی، هر دو میتواند از وظیفه مدیریت خطرات واقعی ناشی از هوش مصنوعی مولد منحرف شوند.»
اما مدلهای هوش مصنوعی قدرتمندی که توسط شرکتهای بزرگ فناوری منتشر میشوند، معمولاً سیستمهای بستهای هستند که دسترسی عمومی یا دسترسی توسعهدهندگان بیرونی را محدود میکنند. سیستمهای بسته میتوانند در کنترل ریسکها و آسیبهای احتمالی ناشی از اینکه هر کسی بتواند این هوشهای مصنوعی را دانلود و استفاده کند مؤثر باشند، اما درعینحال قدرت را در دست سازمانهایی متمرکز میکنند که آنها را توسعه دادهاند؛ بدون اینکه به مردمی که زندگیشان تحتتأثیر این مدلهای هوش مصنوعی قرار میگیرد، اجازه مشارکت بدهند.
«ایرین سولایمان» (Irene Solaiman)، مدیر سیاستگذاری Hugging Face، شرکتی که ابزارهایی برای اشتراکگذاری کد و دادههای هوش مصنوعی توسعه میدهد میگوید: «نگرانکنندهترین مسئله در روند بستهسازی این است که تعداد بسیار کمی از مدلها خارج از چند سازمان توسعهدهنده در دسترس خواهند بود.»
این روند در تغییر رویکرد OpenAI نیز آشکار است؛ سازمانی که باوجود آغاز به کار بهعنوان یک نهاد غیرانتفاعی برای توسعه متنباز هوش مصنوعی، اکنون به سمت رویکردی مالکیتی و بسته حرکت کرده است. زمانی که OpenAI فناوری زیربنایی ChatGPT را به GPT-4 ارتقا داد، دلیل عدم افشای نحوه کار این مدل را «چشمانداز رقابتی و پیامدهای ایمنی مدلهای بزرگمقیاس مانند GPT-4 اعلام کرد.»
این رویکرد، ارزیابی تواناییها و محدودیتهای هوشهای مصنوعی مولد را برای افراد بیرون از سازمان دشوار میکند و ممکن است به دامنزدن به هیجان و بزرگنمایی منجر شود. «لی وینسل» (Lee Vinsel)، تاریخدان فناوری از Virginia Tech میگوید: «حبابهای فناوری انرژی احساسی زیادی ایجاد میکنند، هم هیجان و هم ترس؛ اما محیطهای اطلاعاتی بدی هستند.»
بسیاری از حبابهای فناوری شامل هر دو عامل هیجان (Hype) و چیزی هستند که وینسل آن را «هیاهوی انتقادی» (Criti-Hype) مینامد؛ یعنی انتقاداتی که با قبول ادعاهای اغراقآمیز شرکتها و تبدیل آن به سناریوهای پرخطر، خود به بزرگنمایی فناوری کمک میکند. این موضوع را میتوان در واکنشها به ChatGPT بهخوبی دید.
بیانیه مأموریت OpenAI عنوان میکند که این شرکت متعهد است مزایای «هوش جامع مصنوعی»، (Artificial General Intelligence) بهعنوان مدلهایی که میتوانند در هر وظیفه فکری از انسان بهتر عمل کنند را گسترش. ولی ChatGPT از آن هدف فاصله بسیاری دارد. بااینحال، در مارس ۲۰۲۳، پژوهشگران هوش مصنوعی مانند «یوشوا بنجیو» (Yoshua Bengio) و چهرههای فناوری مانند «ایلان ماسک» نامهای سرگشاده را امضا کردند که در آن از آزمایشگاههای تحقیقاتی خواسته شده بود آزمایشهای هوش مصنوعی غولپیکر را متوقف کنند، درحالیکه هوش مصنوعی را «ذهنهای غیرانسانی که ممکن است در نهایت از ما بیشتر شوند، ما را شکست دهند، ما را منسوخ کنند یا جایگزینمان شوند» خطاب کرده بودند.
متخصصانی که با New Scientist مصاحبه کردهاند هشدار میدهند که هم هیجان و هم هیاهوی انتقادی میتوانند توجه را از کار ضروری مدیریت ریسکهای واقعی هوش مصنوعی مولد منحرف کنند. به گفته «دارون عجماوغلو» (Daron Acemoglu)، اقتصاددان MIT: «GPT-4 میتواند بسیاری از کارها را خودکار کند، در مقیاس وسیع اطلاعات نادرست تولید کند، سلطه چند شرکت بزرگ فناوری را تثبیت کند و حتی به دموکراسیها آسیب بزند. این کارها را میتواند انجام دهد بدون اینکه حتی به هوش جامع مصنوعی نزدیک شده باشد.»
عجماوغلو میگوید اکنون «نقطه عطفی» برای نهادهای قانونگذاری است تا اطمینان حاصل کنند این فناوریها به کارمندان کمک میکنند، به شهروندان قدرت میدهند و همچنین «قدرتگیری اربابان تکنولوژی که این فناوری را کنترل میکنند»، محدود شود.
اوایل سال ۲۰۲۴، قانونگذاران اتحادیه اروپا «قانون هوش مصنوعی» را تصویب کردند که نخستین استانداردهای گسترده جهانی برای تنظیمگری این فناوری را ایجاد کرد. این قانون مدلهای هوش مصنوعی پرریسک را تنظیمگری میکند و بحثهایی نیز درباره گنجاندنChatGPT و مدلهای مولد مشابه با کاربردهای عمومی در دسته «پرخطر» در جریان است.
مؤسسه AI Now در نیویورک و سایر متخصصان اخلاق هوش مصنوعی، از جمله گبرو، پیشنهاد میکنند بار مسئولیت بر دوش شرکتهای بزرگ فناوری قرار گیرد و آنها مجبور شوند ثابت کنند که مدل هوش مصنوعیشان آسیبرسان نیست؛ بهجای اینکه از نهادهای نظارتی انتظار برود پس از وقوع آسیبها به آن رسیدگی کنند.
«سارا مایرز وست» (Sarah Myers West)، مدیر AI Now، میگوید: «برخی از بازیگران صنعت از اولین کسانی بودند که گفتند ما به قانونگذاری نیاز داریم. اما ایکاش سؤال این بود که چطور مطمئن هستید کاری که انجام میدهید از ابتدا قانونی است؟»
آنچه اتفاق میافتد تا حد زیادی به این بستگی دارد که این فناوریها چگونه استفاده و تنظیم شوند. عجماوغلو میگوید:
«مهمترین درس تاریخ این است که ما بهعنوان جامعه، انتخابهای بسیار بیشتری درباره نحوه توسعه و عرضه فناوریها نسبت به آنچه آیندهپژوهان فناوری به ما میگویند، داریم.»
«سم آلتمن»، مدیرعامل OpenAI سناریوهای بسیار افراطیتری را درباره آیندهای با مدلهای هوش مصنوعی قدرتمند که در مجموع از انسانها بهتر عمل میکنند مطرح کرده است. او از «بهترین حالت» گفته که در آن مدلهای هوش مصنوعی میتوانند «همه جنبههای واقعیت را بهبود دهند و به ما اجازه دهند زندگی بهتری داشته باشیم» و همچنین هشدار داده که «حالت بد» میتواند «به معنای پایان همه چیز باشد». اما او تأکید کرده که توسعه کنونی هوش مصنوعی هنوز فاصله بسیار زیادی از هوش جامع مصنوعی دارد.
گبرو و همکارانش بیانیهای منتشر کردند که هشدار میدهد: «خطرناک است که خودمان را با رؤیای آرمانشهری یا آخرالزمانی مبتنی بر هوش مصنوعی مشغول کنیم؛ رؤیایی که آیندهای شکوفا یا احتمالاً فاجعهآمیز را وعده میدهد. رقابت کنونی برای انجام آزمایشهای هوش مصنوعی هرچه بزرگتر، یک مسیر اجتنابناپذیر نیست که تنها انتخاب ما سرعت حرکت باشد؛ بلکه مجموعهای از تصمیمهاست که با انگیزه مالی هدایت میشود. اقدامات و انتخابهای شرکتها باید توسط مقرراتی شکل گیرد که از حقوق و منافع مردم محافظت کند.»
به گفته «ساشا لوچونی» (Sasha Luccioni)، پژوهشگر هوش مصنوعی در Hugging Face: «اگر حباب انتظارات تجاری پیرامون هوش مصنوعی مولد به سطحی ناپایدار برسد و در نهایت بترکد، این موضوع میتواند توسعه آینده هوش مصنوعی را نیز تضعیف کند» بااینحال، رونق فعلی لزوماً به زمستان دیگری برای هوش مصنوعی منجر نمیشود. یکی از دلایل این است که برخلاف چرخههای گذشته، بسیاری از سازمانها همچنان مسیرهای دیگری از پژوهش هوش مصنوعی را دنبال میکنند و همه چیز را روی مدلهای مولد سرمایهگذاری نکردهاند.
سازمانهایی مانند Hugging Face خواستار فرهنگ باز در پژوهش و توسعه هوش مصنوعی هستند؛ فرهنگی که بتواند از تشدید غیرقابلکنترل هیجان و آثار واقعی اجتماعی جلوگیری کند. لوچونی با برگزارکنندگان NeurIPS، یکی از بزرگترین رویدادهای پژوهشی هوش مصنوعی همکاری میکند تا یک کد اخلاق کنفرانسی را ایجاد کند؛ کدی که پژوهشگران را ملزم میکند دادههای آموزشی خود را افشا کنند، دسترسی به مدلهایشان را فراهم کنند و کار خود را شفاف نشان دهند، بهجای اینکه آن را بهعنوان فناوری مالکیتی پنهان کنند.
«نیما باسکارینو» (Nima Boscarino)، مهندس اخلاق در Hugging Face، میگوید پژوهشگران هوش مصنوعی باید واضحاً توضیح دهند که مدلها چه کارهایی میتوانند و چه کارهایی نمیتوانند انجام دهند، بین توسعه محصول و پژوهش علمی تمایز قائل شوند و با جوامعی که بیشترین تأثیر را میپذیرند همکاری نزدیک داشته باشند تا ویژگیها و ملاحظات ایمنی مرتبط با آنها را بیاموزند. باسکارینو همچنین بر نیاز به ارزیابی عملکرد هوش مصنوعی در قبال افراد با هویتهای گوناگون تأکید میکند.
پژوهش بر روی هوش مصنوعی مولد، اگر به این شیوه انجام شود، میتواند شکلی پایدارتر و پایا از توسعه فناوریهای مفید را برای آینده تضمین کند. باسکارینو میافزاید: «اینها دوران هیجانانگیزی در حوزه اخلاق هوش مصنوعی هستند و امیدوارم بخش گستردهتر یادگیری ماشین، مسیر کاملاً مخالف آنچهOpenAI انجام داده را در پیش بگیرد.»
