ادعای کپیبرداری غیرمجاز از مدل هوش مصنوعی
گوگل از سرقت «Gemini» خبر داد
شرکت Google اعلام کرده برخی بازیگران «با انگیزههای تجاری» در تلاشاند تا مدل هوش مصنوعی Gemini را بدون مجوز کپیبرداری کنند؛ این ادعا در حالی مطرح میشود که خود گوگل و بسیاری از شرکتهای بزرگ هوش مصنوعی، برای آموزش مدلهایشان حجم عظیمی از محتوای اینترنت را بدون اجازه صاحبان آثار جمعآوری کردهاند.
به گفته گوگل، این شرکت اخیراً با حملاتی موسوم به «استخراج یا تقطیر مدل» (Model Distillation) مواجه شده است؛ روشی که در آن مهاجمان با ارسال دهها هزار درخواست به یک مدل هوش مصنوعی، تلاش میکنند منطق درونی و تواناییهای آن را بازسازی کنند. گوگل میگوید در برخی موارد، جمنای تا بیش از ۱۰۰ هزار بار مورد پرسش قرار گرفته تا قابلیتهایش، بهویژه در زبانهای غیرانگلیسی، تقلید شود.
گوگل این اقدام را «سرقت مالکیت فکری» و نقض شرایط استفاده از خدمات خود دانسته، اما مشخص نکرده این حملات دقیقاً از سوی چه شرکتها یا افرادی انجام شده است. تنها اشاره شده که برخی «نهادهای بخش خصوصی» و «پژوهشگران» در این اقدامات نقش داشتهاند.
این موضعگیری در شرایطی واکنشبرانگیز شده که گوگل و دیگر غولهای فناوری، سالهاست برای آموزش مدلهای هوش مصنوعی خود از دادههای عمومی وب استفاده کردهاند؛ اقدامی که منجر به شکایتهای متعدد نقض کپیرایت علیه آنها شده است. به همین دلیل، برخی منتقدان رفتار گوگل را مصداق «استاندارد دوگانه» میدانند.
ماجرای تقطیر مدل پیشتر نیز جنجالساز شده بود. اوایل سال ۲۰۲۵، استارتاپ چینی «DeepSeek» با معرفی مدلی ارزانتر و کارآمدتر، توجه سیلیکونولی را جلب کرد. در آن زمان، شرکت «OpenAI» تلویحاً این استارتاپ را به نقض شرایط استفاده و کپیبرداری از مدلهای خود متهم کرده بود؛ اظهاراتی که با واکنش منفی کاربران و اتهام ریاکاری به «OpenAI» همراه شد.
«جان هالتکوئیست»، تحلیلگر ارشد گروه اطلاعات تهدید گوگل، در گفتوگو با «NBC News» هشدار داده که گوگل ممکن است «اولین قربانی» موجی گستردهتر از این نوع حملات باشد. به گفته او، در مدلهایی که بهصورت عمومی و از طریق «API» در دسترس هستند، دیگر نیازی به هک سنتی نیست و رقبا میتوانند با دسترسی قانونی، اقدام به تقلید توانمندیها کنند.
گوگل مدعی است در یکی از موارد، سامانههای امنیتی این شرکت حمله را بهصورت لحظهای شناسایی و ریسک آن را کاهش دادهاند، اما کارشناسان میگویند با توجه به هزینههای بالای توسعه هوش مصنوعی و تلاش شرکتها برای کسب درآمد از این فناوری، احتمال افزایش چنین حملاتی در آینده بسیار بالاست.