
چهرههایی که بزرگترین پروژه تاریخ بشر را هدایت میکنند
چه کسی واقعاً OpenAI را اداره میکند؟
در حالی که چهره پر زرق و برق سم آلتمن، مدیرعامل کاریزماتیک، سایه سنگینی بر OpenAI افکنده است، مسیر واقعی این شرکت و آینده فناوری که شهرت جهانی آن بر آن بنا شده، توسط دو نفر دیگر تعیین میشود: مارک چن (Mark Chen)، مدیر ارشد تحقیقات، و یاکوب پاچوکی (Jakub Pachocki)، مدیر ارشد علمی؛ این دو نفر که پس از خروج پر حاشیه ایلیا سوتسکور (معمار ارشد سابق) هدایت تحقیقات را در دست گرفتند، اکنون وظیفه دارند که OpenAI را در رقابت تنگاتنگ با غولهایی چون گوگل دیپمایند، یک گام جلوتر نگه دارند و زمینه را برای عرضه مورد انتظار GPT-5 فراهم سازند.
این گزارش تحلیلی، نگاهی عمیق به دیدگاههای این دو رهبر میاندازد؛ از تعادل ظریف بین تحقیق و محصول گرفته تا تمرکز وسواسگونه بر ریاضیات و برنامهنویسی به عنوان کلید دستیابی به هوش عمومی مصنوعی (AGI).
اوجهای دوقلو: ترکیب پژوهش و محصول
چن و پاچوکی، گرچه در ظاهر متفاوت به نظر میرسند (یکی با سابقه تجارت کمی و رسانهای، دیگری با سابقه علوم کامپیوتر نظری و ظاهری هکری)، اما در عمل یک تیم کاملاً منسجم را تشکیل میدهند. پاچوکی مسئول تعیین نقشه راه فنی بلندمدت و چشمانداز علمی است، در حالی که چن بر شکلدهی و مدیریت تیمهای تحقیقاتی نظارت دارد.
مارک چن که در سال ۲۰۱۸ به OpenAI پیوست، مغز متفکر پشت پروژههای موفقی چون DALL-E (مدل پیشگام تولید تصویر) و Codex (مدل برنامهنویسی برای GitHub Copilot) بوده است. در مقابل، یاکوب پاچوکی، جانشین سوتسکور، معمار اصلی مدلهای استدلالی (Reasoning Models)، بهویژه مدلهای o1 و o3 است که برای حل مسائل پیچیده علمی و ریاضی طراحی شدهاند.
این دو، چالش همیشگی شرکت را مدیریت میکنند: چگونه یک «آزمایشگاه تحقیقاتی» که اکنون یک شرکت ۳۰۰ میلیارد دلاری است، میتواند در رقابت با ثروتمندترین شرکتهای جهان، هم مرزهای علم را جابجا کند و هم بهطور مداوم محصولاتی نظیر GPT-4 و Operator (عامل مرورگر) را عرضه نماید؟
به گفته پاچوکی، این تنش طبیعی است؛ استراتژی OpenAI این است:«درخت را تکان دهید و هر چه به دست میآید، برداشت کنید.»
وسواس ریاضی و برنامهنویسی: کلید هوش عمومی مصنوعی
نقطه کانونی و هیجانانگیز تحقیقات این دو نفر، پیروزیهای اخیر مدلهای هوش مصنوعی OpenAI در عرصههای رقابتی است. این پیروزیها دیدگاه آنها نسبت به هوش برتر را شکل داده است:
- کسب مقام دوم در مسابقات برنامهنویسی جهانی AtCoder: چن این موفقیت را «دستکمگرفتهشده» میداند و آن را «بیسابقه» در صعود به یک لایه متفاوت از عملکرد انسان توصیف میکند.
- کسب مدال طلا در المپیاد جهانی ریاضی (IMO): اگرچه این دستاورد توسط گوگل دیپمایند نیز تکرار شد، اما برای چن و پاچوکی، این موفقیتها تاییدی بر مسیر درست آنهاست.
هر دو رهبر، دارای سوابق شخصی در کدنویسی رقابتی هستند. این پیشینه باعث شده است که آنها ریاضیات و برنامهنویسی را نه صرفاً به عنوان یک حوزه تخصصی، بلکه سنگ بنای یک شکل عمومیتر از هوش بدانند.
چن: «ما خودخواهانه میخواهیم مدلهایی بسازیم که پیشرفت ما را تسریع کنند. ما این را یک عامل بسیار سریع برای پیشرفت میبینیم.»
پاچوکی: «ما در مورد برنامهنویسی و ریاضیات صحبت میکنیم، اما در واقع، هدف خلاقیت، ارائه ایدههای بدیع و ارتباط دادن مفاهیم از مکانهای مختلف است.»
آنها استدلال میکنند که اگر مدلها بتوانند مسائلی را حل کنند که نیازمند «تفکر خارج از چارچوب» و بینشهای نوآورانه است (همانند برنامهنویسی که نفر اول مسابقات AtCoder پس از ساعتها تأمل به آن رسید)، آنگاه قادر خواهند بود پیشرفتهای علمی را بهشدت تسریع بخشند. چن حتی با صراحتی تکاندهنده، در پاسخ به این سوال که آیا خوب است مدلها فاقد «مهارتهای انسانی» باشند، میپرسد: «چرا که نه؟»، و بر این باور است که هوش مصنوعی در نهایت میتواند در نقشهایی پیچیدهتر از ابزار علمی ظاهر شود.
معمای AGI و مقیاسپذیری بیپایان
هدف نهایی OpenAI همچنان ساخت AGI است. چن و پاچوکی، با وجود پیشرفتهای مدلهای استدلالی (که مسائل را به مراحل کوچکتر تقسیم میکنند)، بر این باورند که استدلال هنوز حل نشده است.
چن: «ما قطعاً استدلال را حل نکردهایم. شما مدلهایی دارید که چیزهای زیادی میدانند اما نمیتوانند آن دانش را به هم زنجیر کنند… چرا این کار را نمیتوانند به شیوهای که انسانها انجام میدهند، انجام دهند؟»
آنها به شدت به قوانین مقیاسگذاری (Scaling Laws) اعتقاد دارند؛ فرضیهای که میگوید مدلها با افزایش توان محاسباتی و داده، همچنان بهتر و تواناتر خواهند شد. چن اصرار دارد: «شواهدی مبنی بر توقف قوانین مقیاسگذاری وجود ندارد.» آنها معتقدند که فقط باید گلوگاههای فعلی (مانند شیوه ساخت مدلها یا کیفیت دادهها) را پیدا و برطرف کرد.
پاچوکی، AGI را به لحظهای پیوند میدهد که کامپیوترها بتوانند بهطور خودکار فناوریهای جدید را توسعه دهند. او تعریف AGI را با مفهومی کلیدی مرتبط میسازد: «زمان خودمختاری» (Autonomous Time). این مفهوم به مدت زمانی اشاره دارد که یک مدل میتواند روی یک مشکل دشوار به صورت خودمختار و بدون رسیدن به بنبست، پیشرفت سازنده داشته باشد.
سرنوشت «همترازی فوقالعاده» و ایمنی درونیشده
بزرگترین سایه بر تحقیقات OpenAI، ماجرای تیم (Superalignment) همترازی فوقالعاده است که توسط ایلیا سوتسکور و جان لایکه راهاندازی شده بود تا از سرکش شدن یک هوش فوقالعاده جلوگیری کند. این تیم پس از خروج لایکه و سوتسکور منحل شد. لایکه هنگام خروج، سازمان را متهم کرد که «فرهنگ ایمنی را در درجه دوم اهمیت نسبت به محصولات جذاب» قرار داده است.
چن و پاچوکی با در نظر گرفتن این انتقادات، بر این باورند که بحث همترازی (Alignment) اکنون به بخشی درونیشده از عملیات اصلی شرکت تبدیل شده است. پاچوکی استدلال میکند که مدلها تا زمانی که مطابق انتظار عمل نکنند، اصلاً کاربردی نیستند.
پاچوکی: «دو سال پیش خطراتی که تصور میکردیم، بیشتر نظری بودند. دنیای امروز بسیار متفاوت است و اکنون بسیاری از مشکلات همترازی، انگیزههای بسیار عملی دارند.»
با این حال، این گزارش نشاندهنده یک تنش ظریف بین این دو رهبر است: پاچوکی بیشتر به افق بلندمدت و آینده فناوری میاندیشد، در حالی که چن با واقعیتهای عملیاتی، چالشهای تیمی و نیازهای شرکت دست و پنجه نرم میکند. این تعادل ظریف بین رویای AGI (پاچوکی) و عرضه سریع محصول (چن) است که مسیر OpenAI را در دوران پس از سوتسکور ترسیم میکند.