Capturarea lui Maduro a fost facilitată de instrumentul AI al lui Claude

Misiunea a inclus bombardarea mai multor locații din Caracas. Utilizarea modelului în astfel de scopuri contravine politicii publice a Anthropic. Regulile companiei interzic în mod explicit utilizarea AI pentru violență, dezvoltarea de arme sau organizarea supravegherii, scrie WSJ , citând surse.

„Nu putem comenta dacă Claude sau orice alt model a fost folosit într-o anumită operațiune – sub acoperire sau nu. Orice utilizare a LLM – fie în sectorul privat, fie în agențiile guvernamentale – trebuie să respecte politicile noastre care reglementează modul în care sunt implementate rețelele neuronale. Lucrăm îndeaproape cu partenerii pentru a asigura conformitatea”, a declarat un purtător de cuvânt al Anthropic.

Implementarea lui Claude în Ministerul Apărării a fost posibilă datorită parteneriatului dintre Anthropic și Palantir Technologies. Software-ul acestuia din urmă este utilizat pe scară largă de agențiile militare și federale de aplicare a legii.

După raid, un angajat al Anthropic a întrebat un coleg de la Palantir ce rol exact a jucat rețeaua neuronală în operațiunea de capturare a lui Maduro, scrie WSJ. Un purtător de cuvânt al startup-ului a declarat că societatea nu a discutat despre utilizarea modelelor sale în misiuni specifice „cu niciun partener, inclusiv Palantir”, limitându-se la chestiuni tehnice.

„Anthropic se angajează să utilizeze inteligența artificială avansată în sprijinul securității naționale a SUA”, a adăugat purtătorul de cuvânt.

Anthropic vs. Pentagon?

Purtătorul de cuvânt al Pentagonului, Sean Parnell, a anunțat o relație revizuită cu laboratorul de AI.

„Țara noastră are nevoie de parteneri dispuși să ajute luptătorii să câștige orice război”, a declarat el.

În iulie 2025, Departamentul american al Apărării a acordat contracte în valoare de până la 200 de milioane de dolari companiilor Anthropic, Google, OpenAI și xAI pentru a dezvolta soluții de securitate bazate pe inteligența artificială. Chief Digital and AI Technology Office al departamentului intenționa să utilizeze dezvoltările acestora pentru a crea sisteme de securitate bazate pe agenți.

Cu toate acestea, încă din ianuarie 2026, WSJ a raportat despre riscul de a rupe acordul cu Anthropic. Neînțelegerea a apărut din cauza politicii etice stricte a startup-ului. Regulile interzic utilizarea modelului Claude pentru supravegherea în masă și operațiunile letale autonome, ceea ce limitează utilizarea sa la agenții de informații precum ICE și FBI.

Nemulțumirea oficialilor s-a intensificat pe fondul integrării chatbotului Grok în rețeaua Pentagonului. Secretarul Apărării, Pete Hegseth, comentând parteneriatul cu xAI, a subliniat că agenția „nu va utiliza modele care nu permit purtarea războaielor”.

Presiune asupra dezvoltatorilor

Axios, citând surse, a scris că Pentagonul face presiuni asupra celor patru mari companii de inteligență artificială pentru a permite armatei SUA să utilizeze tehnologia în „toate scopurile legitime”. Acestea includ dezvoltarea de arme, colectarea de informații și operațiunile de luptă.

Antropicul refuză să ridice restricțiile privind spionarea cetățenilor americani și construirea de arme complet autonome. Negocierile au intrat în impas, dar este dificil să se înlocuiască rapid Claude din cauza superiorității tehnologice a modelului în misiuni guvernamentale specifice.

În plus față de chatbotul Anthropic, Pentagonul utilizează ChatGPT de la OpenAI, Gemini de la Google și Grok de la xAI în sarcini neclasificate. Toate trei au fost de acord să relaxeze restricțiile privind utilizatorii obișnuiți.

Acum se discută despre mutarea LLM-urilor în circuitul clasificat și utilizarea lor „în toate scopurile legitime”. Una dintre cele trei companii a fost deja de acord să facă acest lucru, celelalte două fiind „mai flexibile” decât Anthropic.

The post Capturarea lui Maduro a fost facilitată de instrumentul AI al lui Claude appeared first on logos-pres.md.