جدیدترین تحولات هوش مصنوعی را در کانال بله هوشیو بخوانید

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 گوگل از سرقت «Gemini» خبر داد

ادعای کپی‌برداری غیرمجاز از مدل هوش مصنوعی

گوگل از سرقت «Gemini» خبر داد

زمان مطالعه: 2 دقیقه

شرکت Google اعلام کرده برخی بازیگران «با انگیزه‌های تجاری» در تلاش‌اند تا مدل هوش مصنوعی Gemini را بدون مجوز کپی‌برداری کنند؛ این ادعا در حالی مطرح می‌شود که خود گوگل و بسیاری از شرکت‌های بزرگ هوش مصنوعی، برای آموزش مدل‌هایشان حجم عظیمی از محتوای اینترنت را بدون اجازه صاحبان آثار جمع‌آوری کرده‌اند.

به گفته گوگل، این شرکت اخیراً با حملاتی موسوم به «استخراج یا تقطیر مدل» (Model Distillation) مواجه شده است؛ روشی که در آن مهاجمان با ارسال ده‌ها هزار درخواست به یک مدل هوش مصنوعی، تلاش می‌کنند منطق درونی و توانایی‌های آن را بازسازی کنند. گوگل می‌گوید در برخی موارد، جمنای تا بیش از ۱۰۰ هزار بار مورد پرسش قرار گرفته تا قابلیت‌هایش، به‌ویژه در زبان‌های غیرانگلیسی، تقلید شود.

گوگل این اقدام را «سرقت مالکیت فکری» و نقض شرایط استفاده از خدمات خود دانسته، اما مشخص نکرده این حملات دقیقاً از سوی چه شرکت‌ها یا افرادی انجام شده است. تنها اشاره شده که برخی «نهادهای بخش خصوصی» و «پژوهشگران» در این اقدامات نقش داشته‌اند.

این موضع‌گیری در شرایطی واکنش‌برانگیز شده که گوگل و دیگر غول‌های فناوری، سال‌هاست برای آموزش مدل‌های هوش مصنوعی خود از داده‌های عمومی وب استفاده کرده‌اند؛ اقدامی که منجر به شکایت‌های متعدد نقض کپی‌رایت علیه آن‌ها شده است. به همین دلیل، برخی منتقدان رفتار گوگل را مصداق «استاندارد دوگانه» می‌دانند.

ماجرای تقطیر مدل پیش‌تر نیز جنجال‌ساز شده بود. اوایل سال ۲۰۲۵، استارتاپ چینی «DeepSeek» با معرفی مدلی ارزان‌تر و کارآمدتر، توجه سیلیکون‌ولی را جلب کرد. در آن زمان، شرکت «OpenAI» تلویحاً این استارتاپ را به نقض شرایط استفاده و کپی‌برداری از مدل‌های خود متهم کرده بود؛ اظهاراتی که با واکنش منفی کاربران و اتهام ریاکاری به «OpenAI» همراه شد.

«جان هالتکوئیست»، تحلیلگر ارشد گروه اطلاعات تهدید گوگل، در گفت‌وگو با «NBC News» هشدار داده که گوگل ممکن است «اولین قربانی» موجی گسترده‌تر از این نوع حملات باشد. به گفته او، در مدل‌هایی که به‌صورت عمومی و از طریق «API» در دسترس هستند، دیگر نیازی به هک سنتی نیست و رقبا می‌توانند با دسترسی قانونی، اقدام به تقلید توانمندی‌ها کنند.

گوگل مدعی است در یکی از موارد، سامانه‌های امنیتی این شرکت حمله را به‌صورت لحظه‌ای شناسایی و ریسک آن را کاهش داده‌اند، اما کارشناسان می‌گویند با توجه به هزینه‌های بالای توسعه هوش مصنوعی و تلاش شرکت‌ها برای کسب درآمد از این فناوری، احتمال افزایش چنین حملاتی در آینده بسیار بالاست.

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]