The Anthropic logo appears on a smartphone screen with another company logo in the background. Following the release of Claude Opus 4.6 on February 5, Anthropic continues to challenge its main competitors in the generative AI market in Creteil, France, on February 6, 2026. (Photo by Samuel Boivin/NurPhoto via Getty Images)
دانشمند ارشد Anthropic با پیامی مرموز استعفا داد
«مرینانک شارما»، مدیر تیم تحقیقات امنیتی در شرکت Anthropic (رقیب اصلی سازنده ChatGPT)، با انتشار نامهای سرگشاده از سمت خود کنارهگیری کرد. شارما که وظیفهاش ایجاد «محافظ» برای جلوگیری از خطرات هوش مصنوعی بود، با لحنی هشدارآمیز نوشت: «دنیا در وضعیت مخاطرهآمیزی قرار دارد؛ از بحرانهای زیستی گرفته تا چاپلوسی و فریبکاری هوش مصنوعی.»
او اعلام کرد که میخواهد وقت خود را صرف «شعر» و «بیان شجاعانه حقایق» کند؛ پیامی که بسیاری آن را نشانهای از بنبست اخلاقی در شرکتهای بزرگ فناوری میدانند.
همزمان با این استعفا، «زوئی هیتزیگ»، محقق شرکت OpenAI نیز با انتقادی تند از این شرکت جدا شد. او معتقد است ورود تبلیغات به محیط گفتگو با هوش مصنوعی، فاجعهبار خواهد بود.
نگرانی آنها از این موضوع است که کاربران خصوصیترین مسائل خود، از ترسهای پزشکی گرفته تا باورهای مذهبی را با چتباتها در میان میگذارند و خطر اصلی این کار، استفاده از این دادهها برای «تبلیغات هدفمند» است که پتانسیل بالایی برای دستکاری ذهن انسان و سوءاستفادههای ناشناخته دارد.
در پی این تنشها، شرکت Anthropic در یک آگهی پرهزینه، رقیب خود یعنی OpenAI را به فریبکاری متهم کرد. «سم آلتمن»، مدیرعامل OpenAI نیز ساکت ننشست و با کنایه به آگهیهای رقیب، آنها را «غیرصادقانه» خواند و تأکید کرد که تبلیغات، تنها راه رایگان نگه داشتن هوش مصنوعی برای همه مردم است.
استعفای همزمان نخبگانی مانند شارما و هیتزیگ نشان میدهد که در لایههای زیرین این شرکتها، شکاف عمیقی بین «تیمهای امنیت» و «تیمهای فروش» ایجاد شده است. محققان میگویند وقتی شرکتها برای جلب رضایت سهامداران به سمت مدلهای تجاری و تبلیغاتی حرکت میکنند، اصول ایمنی که برای محافظت از بشریت وضع شده بود، اولین قربانی این مسیر خواهد بود.