Înapoi la știri

Google: Atacatori au folosit peste 100.000 de întrebări pentru a încerca clonarea chatbotului AI Gemini

13 Feb 2026
4 minute min
Maria Simionescu
Google: Atacatori au folosit peste 100.000 de întrebări pentru a încerca clonarea chatbotului AI Gemini

Conform nbcnews.com, Google a declarat că chatbotul său de inteligență artificială, Gemini, a fost supus unui număr mare de atacuri din partea actorilor „motivați comercial” care încearcă să îl cloneze prin solicitări repetitive, uneori cu mii de întrebări diferite. O campanie a inclus peste 100.000 de provocări la adresa Gemini.

👉 Google raportează atacuri de distilare asupra chatbotului Gemini

Într-un raport publicat joi, Google a menționat că a fost afectată tot mai mult de „atacuri de distilare”, adică întrebări repetate menite să determine un chatbot să dezvăluie funcționarea sa internă. Google a descris această activitate ca fiind „extracția modelului”, în care potențialii copiatori analizează sistemul pentru a descoperi șabloanele și logica care stau la baza funcționării acestuia. Se pare că atacatorii doresc să folosească informațiile pentru a-și construi sau consolida propriile tehnologii AI.

Compania consideră că autorii atacurilor sunt în principal companii private sau cercetători care caută un avantaj competitiv. Un purtător de cuvânt a declarat pentru NBC News că Google crede că atacurile au venit din întreaga lume, dar a refuzat să ofere detalii suplimentare despre suspecți. Domeniul atacurilor asupra Gemini sugerează că acestea vor deveni cel mai probabil frecvente și împotriva instrumentelor de AI personalizate ale companiilor mai mici, a spus John Hultquist, analistul principal al Grupului de Inteligență pentru Amenințări al Google.

👉 Vulnerabilitatea modelelor AI personalizate în fața atacurilor de distilare

„Vom fi canarul din mina de cărbune pentru mult mai multe incidente”, a declarat Hultquist, refuzând să numească suspecți. Compania consideră distilarea ca pe un furt de proprietate intelectuală. Companiile de tehnologie au cheltuit miliarde de dolari în cursa de dezvoltare a chatboturilor AI sau a modelelor lingvistice mari și consideră că funcționarea internă a modelelor lor de vârf este o informație proprietară extrem de valoroasă.

Deși au mecanisme pentru a identifica atacurile de distilare și a bloca autorii acestora, modelele lingvistice mari (LLM) sunt în mod inerent vulnerabile la distilare, deoarece sunt deschise oricui pe internet. OpenAI, compania din spatele ChatGPT, a acuzat anul trecut rivalul său chinez DeepSeek de derularea atacurilor de distilare pentru a-și îmbunătăți modelele. Multe dintre atacuri au fost concepute pentru a determina algoritmii care ajută Gemini să „raționeze” sau să decidă cum să proceseze informațiile, a spus Google.

Hultquist a menționat că, pe măsură ce mai multe companii își proiectează propriile LLM-uri personalizate, antrenate pe date potențial sensibile, acestea devin vulnerabile la atacuri similare. „Să zicem că LLM-ul tău a fost antrenat pe 100 de ani de gândire secretă despre modul în care faci comerț. Teoretic, ai putea distila o parte din aceea”, a adăugat el.

Alte postari din Tech
Tech

YouTube permite acum dezactivarea Shorts

YouTube a adăugat în setările sale de gestionare a timpului o opțiune care permite utilizatorilor să seteze o limită de timp de zero minute pentru Shorts, eliminând efectiv această funcție din aplicațiile pentru Android și iOS. Potrivit theverge.com, această opțiune este o actualizare a temporizatorului pentru Shorts, anunțat inițial în octombrie, când cea mai mică opțiune era de 15 minute.

Tech

Cele mai recente zvonuri despre iPhone-ul pliabil: Ce s-a schimbat și ce știm acum

Rapoartele despre primul iPhone pliabil al Apple se intensifică acum că dispozitivul a intrat într-o nouă etapă de testare care precede producția de masă. Potrivit macrumors.com, dacă ai întâmpinat dificultăți în a ține pasul cu noutățile, am rezumat cele mai recente zvonuri despre iPhone Fold care au apărut în ultimele săptămâni.

Acasa Recente Radio Județe