Anthropic caută un expert în arme pentru a opri „utilizarea abuzivă catastrofală” a programului lor

Cu alte cuvinte, se teme că instrumentele sale de IA ar putea indica cuiva cum să fabrice arme chimice sau radioactive și dorește ca un expert să se asigure că măsurile de protecție sunt suficient de solide, potrivit BBC.

În anunțul de recrutare de pe LinkedIn, firma precizează că candidații trebuie să aibă o experiență de cel puțin cinci ani în „apărarea împotriva armelor chimice și/sau a explozivilor”, precum și cunoștințe despre „dispozitive de dispersie radiologică”, cunoscute și sub denumirea de bombe murdare.

Firma a declarat pentru BBC că rolul este similar cu posturile din alte domenii sensibile pe care le-a creat deja.

Mai multe companii au adoptat strategia

Anthropic nu este singura firmă de IA care adoptă această strategie.

Un post similar a fost publicat de OpenAI, dezvoltatorul ChatGPT. Pe site-ul său de recrutare, compania listează un post vacant pentru un cercetător în „riscuri biologice și chimice”, cu un salariu de până la 455.000 de dolari, aproape dublu față de cel oferit de Anthropic.

Însă unii experți sunt îngrijorați de riscurile acestei abordări, avertizând că aceasta oferă instrumentelor de IA informații despre arme, chiar dacă li s-a cerut să nu le folosească.

Industria IA a avertizat în mod continuu cu privire la potențialele pe care le prezintă tehnologia sa, dar nu s-a făcut nicio încercare de a încetini progresul acesteia.

Legăturile cu războiul din Iran

Problema a căpătat un caracter urgent, întrucât guvernul SUA apelează la firmele de IA în timp ce declanșează războiul în Iran și operațiuni militare în Venezuela.

Anthropic a inițiat o acțiune în justiție împotriva Departamentului Apărării al SUA, pe care a desemnat-o drept un risc pentru lanțul de aprovizionare atunci când firma a insistat că sistemele sale nu trebuie utilizate nici în arme complet autonome, nici în supravegherea în masă a americanilor.

Co-fondatorul Anthropic, Dario Amodei, a scris în februarie că nu crede că tehnologia este încă suficient de bună și că nu ar trebui utilizată în aceste scopuri.

Casa Albă a transmis că armata SUA nu va fi condusă de companii de tehnologie.

Eticheta de risc plasează compania americană în aceeași situație cu firma chineză de telecomunicații Huawei, care a fost, de asemenea, inclusă pe lista neagră din cauza unor preocupări diferite legate de securitatea națională.

OpenAI a declarat că este de acord cu poziția Anthropic, dar a negociat apoi propriul contract cu guvernul SUA, care, potrivit companiei, nu a intrat încă în vigoare.

Asistentul AI al Anthropic, numit Claude, nu a fost încă eliminat treptat și este în prezent încă integrat în sistemele furnizate de Palantir și utilizat de SUA în războiul dintre SUA, Israel și Iran.

Publicat
Din categoria Politic