Acuzațiile companiilor, vin pe fondul competiției tot mai intense dintre SUA și China pentru supremația în domeniul AI, arată Euronews.
Tehnica, adesea numită și „atac de extracție de model” sau „distilare AI”, presupune solicitarea repetată a unui model AI puternic – uneori de mii sau milioane de ori – pentru a genera un vast set de răspunsuri. Aceste date sunt apoi folosite pentru a instrui un model nou, de dimensiuni mai mici, mai rapid și mai puțin costisitor.
„Distilarea AI”- acceptată doar în anumite conjuncturi
Practic, modelul original este „interogat” cu un număr masiv de cereri (prompturi), iar rezultatele sale devin materialul didactic pentru noul sistem. Conform Anthropic, această abordare poate accelera semnificativ dezvoltarea unui sistem concurent, reducând costurile inițiale la o fracțiune.
Firmele americane subliniază că distilarea este o practică acceptabilă atunci când este realizată intern, în scopul optimizării propriilor produse. Problema apare, însă, când această tehnică este folosită pentru a copia, fără permisiunea dezvoltatorului, performanțele unui model creat de o altă companie.
Acuzațiile detaliate împotriva entităților chineze
Anthropic susține că firmele chineze DeepSeek, MiniMax și Moonshot AI ar fi inițiat peste 16 milioane de interacțiuni cu chatbot-ul său, Claude. Se presupune că au utilizat circa 24.000 de conturi false pentru a eluda restricțiile de utilizare.
Potrivit companiei, traficul de date ar fi fost redirecționat printr-o rețea amplă de servere proxy. S-a încercat astfel disimularea originii accesărilor, întrucât Claude nu este disponibil oficial pe teritoriul Chinei.
La rândul său, OpenAI a informat legislatorii americani că a detectat tentative similare de replicare a modelelor sale avansate. A avertizat și că anumite companii dezvoltă metode din ce în ce mai complexe pentru a-și masca operațiunile.
Motivele suspectate ale companiilor acuzate
Raportul indică faptul că unele conturi asociate DeepSeek ar fi cerut modelului Claude să explice „pas cu pas” raționamentul din spatele răspunsurilor sale. Scopul ar fi fost generarea de date de tip „lanț de gândire” (chain-of-thought), utile pentru instruirea altor modele.
De asemenea, ar fi fost solicitate variante „adecvat cenzurate” pentru întrebări politice sensibile. Aici au fost incluse și cele referitoare la critici ai Partidului Comunist Chinez. Anthropic sugerează că astfel de cereri ar putea fi utilizate pentru a ajusta modelele AI. Scopul este clar: să evite abordarea subiectelor considerate delicate în China.
MiniMax și Moonshot AI ar fi desfășurat campanii similare, însă raportul nu oferă exemple detaliate privind natura exactă a datelor colectate de către acestea.
O chestiune de securitate națională sau de competiție tehnologică?
Anthropic avertizează că modelele dezvoltate prin distilare neautorizată ar putea să nu încorporeze măsurile de siguranță adecvate. Acest lucru, susține compania, ar putea amplifica riscurile legate de securitatea cibernetică sau de o utilizare abuzivă a inteligenței artificiale.
Pe de altă parte, Google afirmă că astfel de atacuri nu afectează utilizatorii obișnuiți. Nici nu compromit direct confidențialitatea serviciilor AI. Reprezintă mai degrabă o încălcare a proprietății intelectuale. Aceste rapoarte apar într-un context în care rivalitatea dintre SUA și China în domeniul inteligenței artificiale se intensifică, miza fiind nu doar economică, ci și strategică. Supremația în AI influențează atât industriile viitorului, cât și aplicațiile militare și de securitate.
Anthropic declară că a implementat sisteme de detecție pentru a identifica aceste campanii, dar recunoaște că nicio companie nu poate gestiona singură fenomenul, într-un mediu pe care unii analiști îl descriu deja ca fiind un „război rece” al tehnologiei.