Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 اگر هوش مصنوعی دیگر بیشتر از این پیشرفت نکند چه؟

GPT-5 نشانه‌هایی از توقف پیشرفت و توسعه مدل‌های زبانی بزرگ را نمایان کرده است

اگر هوش مصنوعی دیگر بیشتر از این پیشرفت نکند چه؟

زمان مطالعه: 8 دقیقه

تفاوت‌های نه‌چندان محسوس نسخه جدید ChatGPT با نسخه‌های پیشین آن، گمانه‌زنی‌هایی از کاهش سرعت یا حتی توقف روند توسعه مدل‌های زبانی بزرگ را در میان کاربران و متخصصان به دنبال داشته است.

بخش زیادی از شوروشوق و البته هراس پیرامون فناوری‌های امروز هوش مصنوعی به ژانویه ۲۰۲۰ بازمی‌گردد؛ زمانی که تیمی از پژوهشگران OpenAI گزارشی سی‌صفحه‌ای با عنوان «قوانین مقیاس‌پذیری برای مدل‌های زبانی عصبی» (Scaling Laws for Neural Language Models) منتشر کردند. رهبری این تیم بر عهده «جرد کاپلان» (Jared Kaplan)، پژوهشگر هوش مصنوعی بود و «داریو آمودی» (Dario Amodei)، مدیرعامل فعلی Anthropic نیز در آن حضور داشت. آن‌ها به یک پرسش کاملاً تخصصی پرداختند: وقتی اندازه مدل‌های زبانی و شدت آموزش آن‌ها افزایش پیدا کند، چه اتفاقی برای عملکردشان رخ می‌دهد؟ رسانه The New Yorker نیز در گزارشی به بررسی این ابهامات پرداخته‌است.

جهش گمراه‌کننده

در آن زمان، بسیاری از متخصصان یادگیری ماشین تصور می‌کردند که مدل‌های زبانی پس از رسیدن به‌اندازه‌ای مشخص، صرفاً شروع به حفظ‌کردن پاسخ‌های داده‌های آموزشی می‌کنند و این امر باعث می‌شود در عمل کارایی کمتری داشته باشند. اما مقاله OpenAI استدلال می‌کرد که این مدل‌ها هرچه بزرگ‌تر شوند با رشدی نمایی بهتر هم خواهند شد. پیام روشن بود؛ اگر مدل‌های زبانی بزرگ‌تر بسازید و آن‌ها را با داده‌های عظیم‌تر آموزش دهید، به شکل شگفت‌انگیزی عملکرد بهتری خواهند داشت. چند ماه بعد، OpenAI با معرفی GPT-3 این قانون مقیاس‌پذیری را در عمل تأیید کرد؛ این مدل ده برابر بزرگ‌تر از GPT-2 بود و جهشی خیره‌کننده در کیفیت را از خود نشان داد.

جرقه ایده

ناگهان ایده «هوش جامع مصنوعی» (Artificial general intelligence – AGI) به‌عنوان سیستمی که در طیف وسیعی از وظایف هم‌سطح یا حتی بهتر از انسان عمل می‌کند دست‌یافتنی به نظر رسید. اگر قانون مقیاس برقرار می‌ماند، شرکت‌های هوش مصنوعی می‌توانستند تنها با تزریق سرمایه و توان پردازشی بیشتر به مدل‌های زبانی، به AGI دست پیدا کنند. کمتر از یک سال بعد، سم آلتمن مدیرعامل OpenAI در یادداشتی با عنوان «قانون مور برای همه چیز» (Moore’s Law for Everything) نوشت: «هوش مصنوعی بخش بیشتری از کارهایی را که امروز انسان‌ها انجام می‌دهند بر عهده خواهد گرفت و برای صاحبان سرمایه ثروتی غیرقابل‌تصور ایجاد می‌کند.» او تأکید کرد: «این انقلاب فناورانه متوقف‌شدنی نیست. جهان چنان سریع و بنیادین تغییر خواهد کرد که سیاست‌گذاری‌ها نیز باید به همان اندازه تغییر کند تا توزیع ثروت انجام شود و افراد بیشتری بتوانند زندگی دلخواه خود را دنبال کنند.»

در اینکه جامعه هوش مصنوعی تا چه حد به این باور رسید که رسیدن به AGI تنها از مسیر مقیاس‌پذیری ممکن است نمی‌توان اغراق کرد. در سال ۲۰۲۲ «گری مارکوس» (Gary Marcus)، کارآفرین هوش مصنوعی و استاد بازنشسته روان‌شناسی و علوم اعصاب دانشگاه نیویورک، به مقاله کاپلان انتقاد وارد کرد و یادآور شد: «قوانین موسوم به مقیاس، قوانین جهان‌شمول مانند جاذبه نیستند، بلکه صرفاً مشاهداتی هستند که ممکن است همیشه برقرار نمانند.» اما واکنش‌ها نسبت به این انتقاد بسیار تند و فوری بودند. مارکوس بعدها نوشت: «هیچ نوشته دیگری از من تا این اندازه توسط افراد مشهور مانند سم آلتمن، گرگ براکمن، یان لکون و ایلان ماسک، به سخره گرفته نشده است.» اندکی بعد ChatGPT به سریع‌ترین سامانه‌ای در تاریخ فناوری‌های دیجیتال بدل شد که به صد میلیون کاربر می‌رسد. در مارس ۲۰۲۳، انتشار GPT-4 توسط OpenAI چنان جهشی بر روی منحنی مقیاس ایجاد کرد که حتی الهام‌بخش مقاله‌ای پژوهشی از سوی مایکروسافت با عنوان «جرقه‌های هوش جامع مصنوعی» (Sparks of Artificial General Intelligence) شد و ظرف یک سال آینده، حجم سرمایه‌گذاری‌های خطرپذیر در حوزه هوش مصنوعی هشتاد درصد افزایش یافت.

نزول

اما در ادامه روند پیشرفت کند شد.  OpenAI بیش از دو سال مدل بزرگ و چشمگیر جدیدی معرفی نکرد و در عوض بر نسخه‌های تخصصی‌تر تمرکز کرد که دنبال‌کردنشان برای عموم دشوار بود. رفته‌رفته سؤالاتی مبنی بر اینکه آیا قانون مقیاس‌پذیری هوش مصنوعی در حال تضعیف است شکل گرفت. «ایلیا سوتسکِوِر» (Ilya Sutskever) یکی از هم‌بنیان‌گذاران OpenAI به رویترز گفت: «دهه ۲۰۱۰ عصر مقیاس بود، حالا دوباره به عصر شگفتی و کشف برگشته‌ایم. همه در جست‌وجوی چیز بعدی هستند.» در همان زمان، وب‌سایت TechCrunch جو عمومی را چنین بیان کرد: «اکنون به نظر می‌رسد همه پذیرفته‌اند که نمی‌توان صرفاً با استفاده از محاسبات و داده‌های بیشتر در پیش‌آموزش مدل‌های زبانی بزرگ، آن‌ها را به‌نوعی خدای دیجیتال همه‌چیزدان تبدیل کرد.» اما چنین مشاهداتی تا حد زیادی زیر سایه سخنان پرهیاهوی دیگر رهبران هوش مصنوعی قرار گرفت. «داریو آمودی» (Amodei recently) نیز اخیراً عنوان کرده که: «هوش مصنوعی دارد تقریباً در همه کارهای فکری از انسان‌ها بهتر می‌شود.» او در گفت‌وگویی با Axios پیش‌بینی کرد که نیمی از مشاغل اداری سطح پایه طی یک تا پنج سال آینده کاملاً حذف خواهند شد. سم آلتمن و هم مارک زاکربرگ هم نیز ادعا کردند که شرکت‌هایشان به توسعه «ابرهوش» (Superintelligence) نزدیک شده‌اند.

ناامیدکننده

چندی پیش OpenAI بالاخره GPT-5 را منتشر کرد؛ مدلی که بسیاری امید داشتند جهش مهم بعدی در توانایی‌های هوش مصنوعی باشد و حتی بررسی‌های اولیه نیز برخی نقاط قوت را نشان داد. یک یوتیوبر مشهور حوزه فناوری با نام Mrwhosetheboss از GPT-5 خواست یک بازی شطرنج طراحی کند که مهره‌هایش شخصیت‌های پوکمون باشند و نتیجه به طور قابل‌توجهی بهتر از زمانی بود که از مدل کدنویسی پیشروی GPT-o4-mini-high استفاده کرده بود. او همچنین دریافت که GPT-5 می‌تواند برای کانال یوتیوبش سناریوهای بهتری نسبت به GPT-4o بنویسد. نکته‌ای که او را بیش از همه هیجان‌زده کرد این بود که به‌جای اینکه کاربر مجبور باشد خودش مدل مناسب را انتخاب کند؛ GPT-5 به طور خودکار پرامپت‌ها را به مناسب‌ترین مدل هدایت می‌کند. بااین‌حال، او فهمید که GPT-4o به‌وضوح در تولید thumbnail  یوتیوب یا طراحی دعوت‌نامه جشن تولد توانمندتر است و هیچ دشواری‌ای در مجبور کردن GPT-5 به تولید اطلاعات نادرست نداشت. تنها چند ساعت بعد، کاربران شروع به ابراز ناامیدی از این مدل جدید در انجمن r/ChatGPT ردیت کردند و حتی در یک جلسه پرسش‌وپاسخ (Ask Me Anything – A.M.A) آلتمن و دیگر مهندسان OpenAI مجبور شدند با حالت دفاعی به شکایات پاسخ دهند. گری مارکوس نیز این نسخه را این‌طور توصیف کرد: «دیرهنگام، بیش از حد تبلیغ‌شده و ناامیدکننده.» (overdue, overhyped and underwhelming)

پس از انتشار GPT-5، پذیرش پیش‌بینی‌های اغراق‌آمیز درباره هوش مصنوعی دشوارتر شده و دیدگاه‌های منتقدانی مانند مارکوس میانه‌رو و متعادل‌تر به نظر می‌رسند. استدلال این دیدگاه‌ها است که هرچند این فناوری مهم است؛ اما قرار نیست از پایه و اساس زندگی ما را دگرگون کند. این دیدگاه‌ها ما را به درنظرگرفتن چشم‌اندازی دیگر از آینده نزدیک دعوت می‌کنند؛ چشم‌اندازی که در آن هوش مصنوعی شاید خیلی بهتر از وضعیت کنونی نشود. البته OpenAI نمی‌خواست نزدیک به دو سال و نیم صبر کند تا GPT-5 را منتشر کند. بر اساس گزارش The Information، در بهار ۲۰۲۴، آلتمن به کارکنان گفته بود که مدل بزرگ بعدی‌شان با اسم رمز Orion، به شکل چشمگیری از GPT-4 بهتر خواهد بود. اما در پاییز مشخص شد که نتایج ناامیدکننده‌اند.  The Information در نوامبر ۲۰۲۴ گزارش داد درحالی‌که عملکرد Orion از مدل‌های قبلی بهتر بود؛ اما میزان افزایش کیفیت بسیار کمتر از جهش میان GPT-3 و GPT-4 بود.

راه‌حل

شکست Orion ترس فزاینده‌ای را در صنعت هوش مصنوعی به راه انداخت؛ اینکه «قانون مقیاس‌پذیری» در واقع اصلاً قانون نبوده است. اگر ساخت مدل‌های بزرگ‌تر تنها کاهش بازدهی را به همراه داشته باشد، شرکت‌های فناوری ناچار خواهند بود برای تقویت محصولات هوش مصنوعی خود به راهبردی تازه متوسل شوند. آن‌ها به‌سرعت روی چیزی تمرکز کردند که می‌توان آن را «بهبودهای پساآموزشی» (Post-training Improvements) نامید. مدل‌های زبانی بزرگ پیش از هر چیز از مرحله‌ای به نام «پیش‌آموزش» عبور می‌کنند که در آن عملاً تمام اینترنت را می‌بلعند تا باهوش شوند. اما همچنان می‌توان بعدها این مدل‌ها را پالایش کرد تا بهتر بتوانند از دانسته‌ها و توانایی‌هایشان استفاده کنند. یکی از این تکنیک‌ها استفاده از ابزاری در یادگیری ماشین به نام «یادگیری تقویتی» (Reinforcement Learning) است که به یک مدل پیش‌آموزش‌دیده یاد می‌دهد در وظایف خاص، رفتاری بهتر داشته باشد. روش دیگری نیز به مدل اجازه می‌دهد زمان محاسباتی بیشتری را برای تولید پاسخ به پرسش‌های دشوار صرف کند.

یک استعاره مفید در اینجا خودرو است. می‌توان گفت پیش‌آموزش، خودرو را تولید می‌کند و پساآموزش آن را ارتقا می‌دهد. در مقاله قوانین مقیاس‌پذیری، کاپلان و همکارانش پیش‌بینی کرده بودند که هرچه فرایند پیش‌آموزش گسترش یابد، قدرت خودروهایی که ساخته می‌شوند نیز افزایش پیدا می‌کند. در مقام تشبیه؛ اگر GPT-3 یک خودروی سدان بود GPT-4 یک خودروی اسپرت بود. اما وقتی این روند متوقف شد، صنعت توجه خود را به بهتر کردن همان خودروهای موجود معطوف کرد و تکنیک‌های پساآموزش مهندسان را به مکانیک تبدیل کردند.

رهبران فناوری به‌سرعت ابراز امیدواری کردند که رویکرد پساآموزش به همان سرعتی محصولاتشان را بهبود می‌دهد که مقیاس‌پذیری سنتی بهبود داده بود. «ساتیا نادلا» (Satya Nadella)، مدیرعامل مایکروسافت، در کنفرانسی در پاییز گذشته گفت: «ما شاهد ظهور یک قانون مقیاس‌پذیری جدید هستیم.» یک سرمایه‌گذار خطرپذیر به نام «آنجنی میدها» (Anjney Midha) نیز از «عصر دوم قوانین مقیاس‌پذیری» سخن گفت. در دسامبر ۲۰۲۴، OpenAI مدل o1 را عرضه کرد که با بهره‌گیری از تکنیک‌های پساآموزش در استدلال مرحله‌به‌مرحله و کدنویسی بهتر عمل می‌کرد. پس از آن نیز مدل‌های o3-mini، o3-mini-high، o4-mini، o4-mini-high و o3-pro را معرفی کرد که هر کدام با ترکیبی اختصاصی از روش‌های پساآموزش ارتقا یافته بودند. سایر شرکت‌های هوش مصنوعی هم به همین سمت رفتند.  Anthropic نسخه Claude 3.7 Sonnet را با بهبودهای پساآموزشی ارائه داد و سپس آن‌ها را در مرکز خانواده مدل‌های Claude 4 قرار داد. اما xAI همچنان به استراتژی مقیاس‌پذیری پایبند ماند تا اینکه در زمستان مدل Grok 3 را معرفی کرد؛ مدلی که با قدرت پردازشی خیره‌کننده ۱۰۰هزار تراشه H100 (چندین برابر توان محاسباتی مورداستفاده برای آموزش GPT-4) آموزش دیده بود. اما وقتی Grok 3 نتوانست به شکل چشمگیری از رقبا پیشی بگیرد، xAI برای توسعه Grok 4 به سراغ الگوریتم‌های پساآموزش رفت.  GPT-5 هم دقیقاً در همین مسیر قرار می‌گیرد؛ بیشتر از آنکه یک مدل کاملاً جدید باشد، تلاشی است برای پالایش محصولات پساآموزش‌یافته اخیر و ادغام آن‌ها در یک بسته واحد.

معیارها

اما آیا این رویکرد پساآموزشی ما را دوباره در مسیر چیزی شبیه به AGI قرار داده است؟ اطلاعیه OpenAI برای GPT-5 شامل چندین نمودار و گراف و معیارهایی مانند ویرایش کد چندزبانه Aider Polyglot و استدلال فضایی چندوجهی ERQA است تا نشان دهد این مدل چقدر بهتر از نسخه‌های پیشین عمل می‌کند.  GPT-5 در آزمون‌های مربوط به برنامه‌نویسی نمره بالاتری گرفته و بررسی‌های اولیه نیز تأیید کردند که کد بهتری تولید می‌کند و به شکل طبیعی‌تر و روان‌تری نیز متن می‌نویسند. اما این تغییرات نسبتاً محدود به نظر می‌رسند و بیشتر شبیه به بهبودهای هدفمند یک به‌روزرسانی نرم‌افزاری هستند تا گسترش توانایی‌ها پیشین و از طرفی برای درک جهش GPT-4 نسبت به مدل‌های پیشین نیازی به نمودار نبود.

برخی معیارها هم شاید آنچه ادعا می‌کنند را نسنجند. از زمان انتشار o1، شرکت‌های هوش مصنوعی بیشتر بر روی پیشرفت در «استدلال مرحله‌به‌مرحله» مانور داده‌اند؛ اما در ژوئن، پژوهشگران اپل مقاله‌ای با عنوان «توهم تفکر» (The Illusion of Thinking) منتشر کردند که نشان می‌داد «مدل‌های استدلال بزرگ» در شرایطی که پیچیدگی معماها کمی فراتر از حالت معمول باشد، عملکردشان تقریباً به صفر سقوط می‌کند. پژوهشگران عنوان کردند که مدل‌های استدلالی از جمله o3-mini، حالت تفکر Claude 3.7 Sonnet و DeepSeek-R1 هنوز نتوانسته‌اند قابلیت‌های حل مسئله تعمیم‌پذیر را توسعه دهند. اخیراً پژوهشگران دانشگاه ایالتی آریزونا نیز به نتیجه‌ای صریح‌تر رسیدند: «آنچه شرکت‌های هوش مصنوعی استدلال می‌نامند، سرابی محو است که وقتی فراتر از داده‌های آموزشی برود، محو می‌شود.» عبور از این معیارها تفاوت زیادی با استدلال در مسائل روزمره شغلی ما دارد. گری مارکوس به من گفت: «من نمی‌شنوم که شرکت‌ها بگویند مدل‌های ۲۰۲۵ برایشان بسیار مفیدتر از مدل‌های ۲۰۲۴ هستند، حتی اگر در معیارها بهتر عمل کنند.» به نظر می‌رسد بهبودهای پساآموزشی به‌اندازه مقیاس‌پذیری قبلی قدرت‌بخش نبوده‌اند. شما می‌توانید کمری خود را ارتقا دهید، اما هیچ مقدار ارتقا آن را به فراری تبدیل نخواهد کرد.

چشم‌انداز

اما پیش‌بینی‌ها راجع به تأثیر هوش مصنوعی مولد بر اقتصاد در سال‌های آینده چگونه خواهد بود؟ «اد زیترون» (Ed Zitron)، تحلیلگر فناوری و مجری پادکست Better Offline اعتقاد دارد «هوش مصنوعی مولد یک بازار پنجاه میلیارددلاری است، نه یک بازار تریلیون دلاری». مارکوس هم با این نظر موافق است. «امیلی بندر» (Emily Bender) استاد زبان‌شناس که یکی از نویسندگان یک نقد مشهور بر مدل‌های اولیه زبانی بود عنوان می‌کند: «تأثیرات این فناوری به این بستگی دارد که چه تعداد از مدیران فریب تبلیغات فروشندگان این تکنولوژی را بخورند و محیط کارشان را حول آن بازطراحی کنند. هرچه این اتفاق بیشتر رخ دهد، وضعیت همه بدتر خواهد شد.» البته چنین دیدگاه‌هایی اغلب غیرواقع‌بینانه تصویر شده‌اند.

اگر این دیدگاه‌های میانه‌رو درباره هوش مصنوعی درست باشد، در چند سال آینده ابزارهای هوش مصنوعی پیشرفت‌هایی تدریجی و پیوسته خواهند داشت. بسیاری از مردم به طور منظم اما محدود، از هوش مصنوعی استفاده خواهند کرد. برخی حوزه‌ها مثل برنامه‌نویسی و پژوهش‌های دانشگاهی تغییرات چشمگیری را تجربه خواهند کرد. اقلیتی از مشاغل، مانند صداپیشگی یا نویسندگی تبلیغاتی در شبکه‌های اجتماعی، ممکن است عملاً از بین بروند. اما احتمالاً هوش مصنوعی بازار کار را به شکل گسترده متلاشی نخواهد کرد و ایده‌های اغراق‌آمیزی مانند «ابرهوش» ممکن است بی‌اعتبار جلوه کنند.

اما افتادن در دام تبلیغات هوش مصنوعی، خطرات خودش را نیز به همراه دارد. زیترون اخیراً در مقاله‌ای یادآوری کرد که حدود ۳۵ درصد ارزش بازار سهام آمریکا در اختیار ۷ غول بزرگ فناوری معروف به Magnificent Seven است و به گفته او، این شرکت‌ها در هجده ماه گذشته حدود ۵۶۰ میلیارد دلار برای سرمایه‌گذاری در هوش مصنوعی هزینه کرده‌اند، درحالی‌که درآمد آن‌ها از این حوزه تنها حدود ۳۵ میلیارد دلار بوده است.

بااین‌حال حتی کسانی که می‌توان آن‌ها را «میانه‌رو» دانست نیز معتقد نیستند که عموم مردم باید بی‌خیال شوند. مارکوس باور دارد که این‌همه تمرکز بر هوش مصنوعی مولد اشتباه بود؛ اما درعین‌حال فکر می‌کند با روش‌های تازه، دستیابی به AGI می‌تواند حتی اوایل دهه ۲۰۳۰ امکان‌پذیر باشد. حتی اگر مدل‌های زبانی هیچ‌گاه شغل‌های ما را خودکار نکنند، این علاقه و سرمایه‌گذاری دوباره در هوش مصنوعی می‌تواند به راه‌حل‌های پیچیده‌تری منجر شود که شاید چنین کاری کنند. در این فاصله باید اقداماتی مانند طراحی مقررات مؤثر برای هوش مصنوعی و توسعه حوزه نوپای اخلاق دیجیتال خود را در برابر اختلالاتی که ممکن است همچنان در پیش باشند آماده کنیم.

ضمیمه‌های مقاله قوانین مقیاس‌پذیری در سال ۲۰۲۰ بخشی با عنوان «هشدارها» (Caveats) داشتند که در نسخه‌های بعدی اغلب نادیده گرفته شد. به گفته نویسندگان: «در حال حاضر ما هیچ درک نظری محکمی از قوانین مقیاس‌پذیری پیشنهادی نداریم و روابط میان مقیاس با اندازه مدل و توان محاسباتی مبهم‌اند.» در عمل، قوانین مقیاس‌پذیری کار می‌کردند؛ تا زمانی که دیگر کار نکردند. کل پروژه آموزش کامپیوترها برای اندیشیدن همچنان پر از رمز و راز است و می‌بایست با غرور کمتر و احتیاط بیشتری پیش برویم.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]