Modele sofisticate de inteligență artificială, precum ChatGPT, Claude și Gemini, au optat pentru escaladarea nucleară în majoritatea simulărilor de crize geopolitice, conform unei cercetări condusă de un specialist de la King’s College London. În fiecare scenariu testat, cel puțin un sistem AI a recurs la amenințări cu armament atomic. Acest lucru ridică semne de întrebare serioase privind influența tehnologiei AI asupra deciziilor strategice viitoare, mai scrie Euronews.
Metodologia cercetării
Analiza, publicată într-o versiune preliminară (pre-print), a comparat trei platforme lingvistice majore: ChatGPT (OpenAI), Claude (Anthropic) și Gemini Flash (Google). Fiecare algoritm a primit rolul de conducător al unei superputeri atomice într-un context inspirat din Războiul Rece.
Pe parcursul exercițiilor, sistemele trebuiau să răspundă la manevrele adversarului și să elaboreze tactici diplomatice și militare. Rezultatul a fost îngrijorător: în fiecare rundă, cel puțin un participant virtual a ales să intensifice conflictul prin intimidare nucleară.
Kenneth Payne, autorul studiului, a remarcat că „toate cele trei modele au tratat armele nucleare tactice drept o simplă treaptă în lanțul escaladării”.
Particularități ale fiecărui sistem
Deși au avut comportamente distincte, toate platformele au manifestat aceeași tendință periculoasă:
- Claude a sugerat lovituri atomice în 64% din situații, deși a oprit mereu înainte de a propune un război nuclear total.
- ChatGPT a evitat inițial escaladarea în circumstanțe fluide, însă sub presiune temporală a recurs frecvent la amenințări cu armament nuclear.
- Gemini s-a dovedit imprevizibil: uneori a obținut victoria prin metode convenționale, alteori a propus imediat un atac strategic masiv.
Într-o situație concretă, Gemini a emis chiar un ultimatum explicit: oprirea imediată a operațiunilor adverse sau declanșarea „unei lansări strategice nucleare complete”.
Opțiunile de detensionare, marginalizate
Echipa de cercetare a pus la dispoziție opt căi de de-escaladare, de la compromisuri diplomatice minore până la reluarea jocului de la zero. Aceste alternative au fost aproape ignorate. Revenirea la situația inițială s-a produs în doar 7% din cazuri.
Analiza indică faptul că algoritmii percep retragerea drept un pericol pentru imagine. Ei aleg consecvent poziții dure sau ostile, chiar dacă acestea amplifică riscul unui război devastator.
Implicațiile descoperirilor
Deși Kenneth Payne precizează că nu există intenția de a încredința codurile nucleare inteligenței artificiale, integrarea acestor sisteme în analiza strategică și asistarea decizională le conferă o importanță crescândă.
O explicație plauzibilă constă în faptul că software-ul procesează conflictul în termeni abstracti. Este lipsit de încărcătura emoțională și istorică care îi face pe oameni să conștientizeze tragedia de la Hiroshima. De asemenea nu poate „înțelege” consecințele reale ale unui război atomic.
Verdictul final al studiului este neechivoc: având în vedere expansiunea IA în sectoare critice, este important să decodificăm mecanismele lor de „raționament” înainte de a le include în procese cu impact planetar.