Google: Atacatori au folosit peste 100.000 de întrebări pentru a încerca clonarea chatbotului AI Gemini
Conform nbcnews.com, Google a declarat că chatbotul său de inteligență artificială, Gemini, a fost supus unui număr mare de atacuri din partea actorilor „motivați comercial” care încearcă să îl cloneze prin solicitări repetitive, uneori cu mii de întrebări diferite. O campanie a inclus peste 100.000 de provocări la adresa Gemini.
👉 Google raportează atacuri de distilare asupra chatbotului Gemini
Într-un raport publicat joi, Google a menționat că a fost afectată tot mai mult de „atacuri de distilare”, adică întrebări repetate menite să determine un chatbot să dezvăluie funcționarea sa internă. Google a descris această activitate ca fiind „extracția modelului”, în care potențialii copiatori analizează sistemul pentru a descoperi șabloanele și logica care stau la baza funcționării acestuia. Se pare că atacatorii doresc să folosească informațiile pentru a-și construi sau consolida propriile tehnologii AI.
Compania consideră că autorii atacurilor sunt în principal companii private sau cercetători care caută un avantaj competitiv. Un purtător de cuvânt a declarat pentru NBC News că Google crede că atacurile au venit din întreaga lume, dar a refuzat să ofere detalii suplimentare despre suspecți. Domeniul atacurilor asupra Gemini sugerează că acestea vor deveni cel mai probabil frecvente și împotriva instrumentelor de AI personalizate ale companiilor mai mici, a spus John Hultquist, analistul principal al Grupului de Inteligență pentru Amenințări al Google.
👉 Vulnerabilitatea modelelor AI personalizate în fața atacurilor de distilare
„Vom fi canarul din mina de cărbune pentru mult mai multe incidente”, a declarat Hultquist, refuzând să numească suspecți. Compania consideră distilarea ca pe un furt de proprietate intelectuală. Companiile de tehnologie au cheltuit miliarde de dolari în cursa de dezvoltare a chatboturilor AI sau a modelelor lingvistice mari și consideră că funcționarea internă a modelelor lor de vârf este o informație proprietară extrem de valoroasă.
Deși au mecanisme pentru a identifica atacurile de distilare și a bloca autorii acestora, modelele lingvistice mari (LLM) sunt în mod inerent vulnerabile la distilare, deoarece sunt deschise oricui pe internet. OpenAI, compania din spatele ChatGPT, a acuzat anul trecut rivalul său chinez DeepSeek de derularea atacurilor de distilare pentru a-și îmbunătăți modelele. Multe dintre atacuri au fost concepute pentru a determina algoritmii care ajută Gemini să „raționeze” sau să decidă cum să proceseze informațiile, a spus Google.
Hultquist a menționat că, pe măsură ce mai multe companii își proiectează propriile LLM-uri personalizate, antrenate pe date potențial sensibile, acestea devin vulnerabile la atacuri similare. „Să zicem că LLM-ul tău a fost antrenat pe 100 de ani de gândire secretă despre modul în care faci comerț. Teoretic, ai putea distila o parte din aceea”, a adăugat el.