آگهی استخدام عجیب سم آلتمن
حقوق نجومی برای جلوگیری از پایان جهان
سم آلتمن، مدیرعامل OpenAI، در پیامی صریح و بیپرده، از استخدام یک مهره کلیدی برای هدایت بخش «آمادگی و ایمنی» این شرکت خبر داد. این موقعیت شغلی که با حقوق پایه بیش از نیم میلیون دلار در سال پیشنهاد شده، وظیفه سنگین ارزیابی ریسکهای وجودی و امنیتی مدلهای پیشرفتهای چون ChatGPT و Sora را بر عهده دارد.
ماموریت غیرممکن: ایمنی در میانه بحران
این آگهی استخدام در حالی منتشر میشود که سال ۲۰۲۵ برای OpenAI سالی پر از چالشهای اخلاقی و حقوقی بوده است. از تولید «دیفیکهای» غیراخلاقی توسط هوش مصنوعی تا شکایتهای مربوط به نقش این ابزار در بحرانهای سلامت روان و حتی پروندههای مرگ ناشی از مشاورههای غلط چتبات، همگی نشان میدهند که سیستمهای فعلی آنطور که ادعا میشود، ایمن نیستند. مدیر جدید باید چارچوبی طراحی کند که از سوءاستفادههای خطرناک در دنیای واقعی جلوگیری کند.
فشار ۱۰۰ میلیارد دلاری بر دوش «مدیر آمادگی»
بزرگترین چالش این موقعیت شغلی، تضاد میان «ایمنی» و «سرعت رشد» است. سم آلتمن اخیراً اعلام کرده که قصد دارد درآمد شرکت را در کمتر از دو سال به ۱۰۰ میلیارد دلار برساند. این یعنی فشار برای عرضه محصولات انقلابی مانند «هوش مصنوعی خودکار در علوم» و گجتهای فیزیکی جدید به شدت بالاست. مدیر آمادگی باید در حالی که نفسهای آلتمن را پشت گردن خود حس میکند، راهی پیدا کند که این پیشرفت سریع، منجر به فجایع غیرقابل جبران یا مسئولیتهای سنگین قانونی نشود.
مرز باریک میان سودآوری و مسئولیت اجتماعی
منتقدان معتقدند OpenAI به جای حذف کامل محصولات خطرناک، به دنبال کسی است که «بندبازی» کند؛ یعنی خطرات را به شکلی مدیریت کند که مانع از عرضه محصول به بازار نشود. این شغل در واقع تلاشی است برای تلطیف ریسکها به گونهای که شرکت بتواند از مزایای مالی هوش مصنوعی بهرهمند شود، بدون اینکه در قبال پیامدهای ناگزیر و منفی آن، از نظر حقوقی کاملاً مقصر شناخته شود.