Inteligența artificială poate fi manipulată pentru a planifica atacuri teroriste

Demonstrația a avut loc la Washington, în cadrul unui briefing cu ușile închise organizat de Centrul pentru Inovare în Combaterea Terorismului și Comisia pentru Securitate Internă a Camerei Reprezentanților, unde membrii Congresului au putut testa direct modele de AI „jailbroken” — sisteme din care au fost eliminate mecanismele de siguranță. potrivit Politico.

„Ceea ce am văzut acolo este ce se întâmplă când scoți aceste bariere și întrebi: «Cum fac o bombă nucleară?»”, a declarat congresmanul republican Gabe Evans, citat de Politico. El a precizat că modelele fără protecții „oferă răspunsuri la toate aceste lucruri”.

Modele cenzurate vs. modele fără restricții

Autoritățile americane pentru securitate internă au explicat diferența dintre modelele obișnuite, care refuză solicitările periculoase, și cele „abliterate”, în care mecanismul de refuz este dezactivat. Într-unul din teste, cercetătorii au cerut ambelor tipuri de modele să elaboreze un plan de atac asupra evenimentului America 250 din Washington, care marchează împlinirea a 250 de ani de la independența SUA și este programat să aibă loc în această vară.

Modelul cu protecții a refuzat solicitarea, invocând imposibilitatea de a oferi informații despre activități ilegale. În schimb, varianta fără restricții a generat instrucțiuni detaliate, pas cu pas, pentru comiterea unui atac.

Răspuns în trei secunde pentru un scenariu de răpire

Președintele comisiei, Andrew Garbarino, a relatata că a întrebat un model AI cum ar putea fi răpit un membru al Congresului.

„A generat un răspuns în mai puțin de trei secunde, cu metode, locuri și momente potrivite”, a afirmat acesta.

Metodele prin care sunt ocolite filtrele

Deși majoritatea modelelor de inteligență artificială sunt lansate cu mecanisme de siguranță, cercetătorii și hackerii au descoperit că acestea pot fi ocolite relativ ușor. Printre metodele folosite pentru a eluda aceste filtre se numără formularea solicitărilor în limbaj tehnic sau academic, astfel încât sistemele să nu le identifice ca fiind periculoase.

Autoritățile avertizează că astfel de instrumente sunt deja utilizate în scopuri ostile, de la campanii de dezinformare până la tentative de atacuri cibernetice automatizate.

„Este foarte înfricoșător”

În aceste condiții, autoritățile americane cresc presiunea asupra companiilor care dezvoltă AI pentru a întări măsurile de siguranță și pentru a limita accesul la conținut periculos.

Deși la nivel federal procesul de reglementare avansează lent în Congres, mai multe state americane au început deja să adopte propriile reguli, încercând să impună standarde mai stricte privind utilizarea și controlul acestor tehnologii.

Referindu-se la tipul de întrebări la care sistemele nu ar trebui să răspundă, congresmanul republican August Pfluger a spus: „Este foarte înfricoșător pentru că AI-ul ar trebui să aibă limite clare”.

Publicat
Din categoria Politic