Disputa a izbucnit în urma unei întâlniri care a avut loc între oficiali de rang înalt din Pentagon și directorul general al Anthropic, Dario Amodei. The Washington Post a relatat vineri că șeful tehnologiei din cadrul Departamentului Apărării ar fi pus pe masă un scenariu extrem: ce s-ar întâmpla dacă o rachetă balistică intercontinentală ar fi lansată asupra Statelor Unite?
Scenariul rachetei nucleare
Într-o astfel de situație, fiecare secundă contează. Oficialii americani ar fi întrebat dacă sistemul AI al companiei, numit Claude, ar putea ajuta armata să detecteze și să intercepteze rapid o astfel de amenințare. Potrivit sursei citate, răspunsul directorului general al Anthropic i-ar fi iritat pe oficialii Pentagonului. Acesta ar fi răspuns evaziv, spunând: „ne-ați putea suna și am rezolva situația”.
Compania neagă însă categoric această versiune și spune că este „complet falsă”, subliniind că a fost de acord ca tehnologia sa să fie utilizată pentru apărarea antirachetă.
Pentagonul vrea mână liberă pentru AI
Disputa nu s-a limitat însă la interceptarea rachetelor. Pentagonul a cerut ca sistemul Claude să poată fi folosit pentru „toate scopurile legale”, formulare care ar putea include și arme autonome sau programe extinse de supraveghere.
Oficialii americani au transmis că nu intenționează să desfășoare supraveghere internă în masă și nici să lase AI-ul să decidă singur lansarea armelor nucleare. „Este o solicitare simplă, de bun-simț”, a declarat purtătorul de cuvânt al Pentagonului, Sean Parnell, argumentând că refuzul companiei ar putea „pune în pericol operațiuni militare critice”.
Anthropic: Tehnologie prea riscantă
De cealaltă parte, Amodei a susținut că tehnologia actuală nu este suficient de sigură pentru a fi folosită în sisteme de armament autonom.
„Într-un set restrâns de cazuri, credem că AI poate submina, nu apăra, valorile democratice”, a declarat el, precizând că utilizările legate de arme autonome și supraveghere extinsă „nu au fost niciodată incluse în contractele noastre cu Departamentul Apărării și credem că nici acum nu ar trebui incluse”.
Interdicție federală
După săptămâni de tensiuni și un ultimatum transmis companiei, conflictul a escaladat decisiv. Potrivit Reuters, Donald Trump a anunțat vineri că le cere tuturor agențiilor federale să înceteze utilizarea tehnologiei Anthropic, iar Pentagonul a clasificat compania drept „risc pentru lanțul de aprovizionare” – o etichetă gravă în zona securității naționale.
Trump a transmis că agențiile federale vor avea o perioadă de tranziție de șase luni pentru a renunța la produsele companiei și a avertizat că, în caz de neconformare, pot urma consecințe serioase. Decizia reprezintă o lovitură majoră pentru start-up-ul care, până recent, avea contracte importante cu Departamentul Apărării și alte instituții federale.
Omul sau AI va lua decizia finală?
Oficialii americani spun că va exista mereu „un om în buclă” atunci când vine vorba de arme nucleare, adică decizia umană va fi finală. Însă chiar și atunci, dacă un sistem AI recomandă un anumit răspuns sau identifică o țintă, influența sa asupra deciziei poate fi majoră.
Miza acestei confruntări poate părea îndepărtată pentru orice alt continent, dar implicațiile ei sunt profunde. Statele Unite investesc masiv în integrarea inteligenței artificiale în armată. AI-ul este deja folosit pentru analiză de informații, planificare operațională și securitate cibernetică. Întrebarea dezvoltatorilor de la Anthropic este cât de departe ar trebui să meargă utilizarea tehnologiei pe care au creat-o în scopuri militare.
Lupta pentru control
Iar conflictul dintre Pentagon și Anthropic nu mai este doar unul tehnic sau contractual. A devenit o confruntare politică deschisă despre cine controlează viitorul tehnologiei militare: statul, care invocă securitatea națională, sau companiile private, care se tem că produsele lor ar putea fi folosite într-un mod pe care îl consideră periculos sau nedemocratic.
În spatele termenilor tehnici și al deciziilor executive stă o dilemă fundamentală: dacă inteligența artificială devine suficient de puternică pentru a influența decizii de război, cine stabilește limitele? Guvernul, în numele securității, sau dezvoltatorii, în numele responsabilității?