Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 نشت اطلاعات کاربران OpenAI در فضای مجازی

نشت اطلاعات کاربران OpenAI در فضای مجازی

زمان مطالعه: 2 دقیقه

شرکت OpenAI، سازنده‌ مشهورترین ابزار هوش مصنوعی جهان (ChatGPT)، بار دیگر در معرض یک رسوایی امنیتی بزرگ قرار گرفت. این شرکت امروز صبح در ایمیل‌هایی رسمی، نشت داده‌های مهم کاربران خود را تأیید کرد.

اگرچه OpenAI تأکید دارد که محتوای گفتگوها و گذرواژه‌های اصلی حفظ شده‌اند، اما افشای نام، آدرس‌های ایمیل و موقعیت مکانی تقریبی کاربرانی که از رابط برنامه‌نویسی کاربردی (API) این شرکت استفاده می‌کردند، زنگ خطر جدی را در مورد اعتماد به زیرساخت‌های این غول فناوری به صدا درآورده است.

OpenAI در تلاش است تا مسئولیت این نشت را از دوش سیستم‌های اصلی خود بردارد و مقصر اصلی را «Mixpanel» معرفی کند؛ ابزار تحلیل‌گر وب شخص ثالثی که این شرکت برای رصد فعالیت‌های رابط کاربری API از آن بهره می‌برد.

به گفته تیم امنیتی OpenAI، این حمله در تاریخ ۹ نوامبر ۲۰۲۵ روی داده و لیست اطلاعات افشا شده شامل موارد زیر است:

  • نام‌های ثبت‌شده در حساب‌های کاربری API.
  • آدرس‌های ایمیل متصل به حساب‌های API.
  • موقعیت مکانی تقریبی (تخمین زده شده از طریق آدرس IP).
  • جزئیات فنی مانند نوع سیستم عامل، مرورگر و وب‌سایت‌های ارجاع‌دهنده.
  • شناسه‌های کاربری و اطلاعات سازمان‌های مرتبط با حساب‌های API.

این حادثه در حالی رخ می‌دهد که میلیون‌ها نفر در سراسر جهان، از ChatGPT برای مسائل بسیار شخصی و حتی مشاوره‌های سلامتی استفاده می‌کنند. اگرچه OpenAI ادعا کرده که محتوای چت‌ها، جزئیات پرداخت یا شناسه‌های دولتی کاربران ChatGPT در امان مانده است، اما اصل وقوع این رخداد، بار دیگر تعهد این شرکت به حفظ حریم خصوصی را زیر سؤال می‌برد.

سم آلتمن، مدیرعامل OpenAI، خود بر این امر واقف است که این شرکت کنترل حجم عظیمی از داده‌های بسیار شخصی کاربران را در اختیار دارد. تحلیلگران معتقدند، اعتماد بی‌مورد به سرویس‌های جانبی و عدم نظارت کافی بر آن‌ها، یک «اشتباه محرز در مدیریت داده» است؛ چرا که در اکوسیستم هوش مصنوعی، کوچکترین حفره در هر نقطه، می‌تواند به از دست رفتن هویت و حریم خصوصی میلیون‌ها کاربر منجر شود.

در پی این نشت، OpenAI اعلام کرده که اتصال خود با Mixpanel را قطع کرده و ضمن تحقیق، به کاربران هشدار داده است که برای جلوگیری از حملات فیشینگ و مهندسی اجتماعی، هوشیاری خود را دوچندان کنند.

از آنجا که اطلاعات افشا شده شامل نام و ایمیل است، کاربران، به‌ویژه کاربران ایرانی که اغلب از طریق واسطه‌ها و بدون هویت واقعی به این سرویس دسترسی دارند، باید مراقب باشند تا هکرها با استفاده از این داده‌ها، تلاش نکنند تا از طریق ایمیل‌های جعلی، اطلاعات حساس‌تر یا رمزهای عبور آن‌ها را به سرقت ببرند.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]