
در پی حوادث اخیر؛ گفتوگوهای حساس به GPT-5 سپرده میشود و کنترل والدین فعال میگردد
شرکت OpenAI روز سهشنبه اعلام کرد در چارچوب برنامهای ۱۲۰ روزه برای تقویت ایمنی محصولات خود، قصد دارد مکالمات حساس، از جمله مواردی که نشانههای آشفتگی روحی در آنها دیده میشود، را به مدلهای استدلالی مانند GPT-5 و o3 منتقل کند. به گفته این شرکت، این مدلها با صرف زمان بیشتر برای تحلیل زمینه گفتوگو، در برابر درخواستهای آسیبزا یا فریبنده مقاومتر عمل میکنند.
این اقدام در حالی صورت میگیرد که خانواده «آدام رِین»، نوجوانی که پس از گفتوگو با چتجیپیتی دست به خودکشی زد، شکایتی علیه OpenAI مطرح کردهاند. در گزارش دیگری نیز به پرونده قتل-خودکشی استاین-اریک سولبرگ اشاره شده که از این ابزار برای تقویت توهمات خود استفاده کرده بود.
علاوه بر این، OpenAI اعلام کرده طی یک ماه آینده قابلیت کنترل والدین را فعال میکند. این ویژگی به والدین امکان میدهد حساب کاربری فرزندشان را مدیریت کرده، سطح پاسخدهی متناسب با سن را تنظیم و حتی اعلان دریافت کنند اگر سیستم نشانههای «آشفتگی شدید» را تشخیص دهد. امکان غیرفعالسازی حافظه و تاریخچه چت نیز برای پیشگیری از وابستگی یا الگوهای فکری مخرب در نظر گرفته شده است.
این شرکت همچنین خبر داد که با متخصصان حوزه سلامت روان، اختلالات تغذیه، سوءمصرف مواد و بهداشت نوجوانان همکاری میکند تا چارچوبهای جدید ایمنی و معیارهای سنجش رفاه کاربران تدوین شود.
با این حال، وکیل خانواده رِین واکنش OpenAI را ناکافی دانسته و از سم آلتمن، مدیرعامل شرکت، خواسته است بهصراحت درباره ایمنی چتجیپیتی موضعگیری کند.