Documentare, audiere, redactare prin AI
Atunci când Xavier Rodriguez, un judecător federal din Texas, se pregătește pentru o audiere, de obicei începe prin a apela la inteligența artificială. El introduce documentele relevante ale instanței într-un instrument de inteligență artificială care produce rapid o cronologie a cazului și a afirmațiilor pe care părțile le fac pentru ca el să le examineze.
„Avocații mei ar pierde 30, 45 de minute, o oră, elaborând o cronologie a evenimentelor”, a declarat Rodriguez pentru The Washington Post. „Chestia asta o face instantaneu.”
Înainte de o audiere, Rodriguez ar putea, de asemenea, să ceară inteligenței artificiale să sugereze întrebări de adresat unui avocat sau să identifice punctele slabe ale argumentului reclamantului.
Rodriguez uneori folosește inteligența artificială și pentru a redacta hotărârea pe care o va emite.
60% din judecătorii federali folosesc AI, 22 % o fac zilnic
Utilizarea inteligenței artificiale în instanță a ajuns pe prima pagină a ziarelor pentru un șir de citate fabricate și alte greșeli din dosarele judiciare care i-au pus pe avocați în dificultate.
Însă adoptarea acestor instrumente în rândul profesioniștilor din domeniul juridic se extinde acum și la cei mai înalți administratori ai sistemului judiciar.
Un studiu al Universității Northwestern , publicat săptămâna aceasta și realizat în colaborare cu Rodriguez, care a chestionat 112 judecători federali, a constatat că peste 60% dintre aceștia au recunoscut că au folosit cel puțin o dată în activitatea lor judiciară unul dintre instrumentele populare de inteligență artificială.
Aproximativ 22% dintre judecători au declarat că folosesc inteligența artificială zilnic sau săptămânal în cadrul atribuțiilor lor.
Instanțele caută parteneriate cu dezvoltatori AI
Instanțele judecătorești urmăresc, de asemenea, parteneriate cu furnizori de servicii juridice care dezvoltă instrumente de inteligență artificială pentru activitatea judiciară.
Curtea comitatului Los Angeles a anunțat în martie un program pilot cu Learned Hand, un start-up juridic care dezvoltă un instrument de inteligență artificială pentru judecători.
Inteligența artificială a Learned Hand este utilizată și în instanțele de judecată din 10 state și la Curtea Supremă din Michigan, a declarat compania.
Companiile de cercetare juridică Thomson Reuters și LexisNexis au contracte pentru a furniza instrumente de inteligență artificială sistemului judiciar federal.
Judecătorii spun că sunt conștienți de riscuri, chiar dacă unii experți se tem că lipsa de siguranță a datelor oferite de inteligența artificială le-ar putea compromite munca.
„Judecătorii sunt responsabili de luarea deciziilor foarte importante pentru oameni și de rezolvarea disputelor foarte semnificative”, a spus Eric Posner, profesor de drept la Universitatea din Chicago.
Avantajul, spun susținătorii, ar putea fi un sistem judiciar mai eficient, mai bine echipat pentru a procesa un volum mare de dosare.
„Evident, suntem foarte precauți în această privință”, a declarat Christopher Patterson, președintele Curții de Apel a 14-a din Florida.
Magistrații se feresc să admită că sistemul juridic folosește AI
Este dificil de stabilit exact câți judecători din vastul sistem juridic al Statelor Unite utilizează inteligența artificială în exercitarea atribuțiilor lor. Nu toate utilizările inteligenței artificiale sunt dezvăluite public, iar instanțele și judecătorii au decis adesea asupra adoptării acesteia la nivel individual.
„Adoptarea inteligenței artificiale este reală, dar este încă la început”, a spus Michael Navin, consultant la Centrul Național pentru Instanțele Statale, care studiază utilizarea inteligenței artificiale în domeniul juridic. „Nu am senzația că există o utilizare copleșitoare a inteligenței artificiale de către judecători, dar există.”
Judecătorii care au fost primii care au adoptat inteligența artificială au declarat că utilizează instrumentele în întregul flux de lucru, de la examinarea unui caz nou până la redactarea unei hotărâri finale.
Judecătorii au mai spus că au folosit inteligența artificială pentru a analiza dosarele părților la instanță, pentru a evalua dacă pretențiile sunt susținute de lege sau pentru a identifica domenii care necesită investigații suplimentare.
Majoritatea instrumentelor juridice de inteligență artificială se leagă direct de legile sau cazurile pe care le citează, au spus ei, permițând judecătorilor să caute legile relevante și să verifice din nou răspunsul inteligenței artificiale.
În unele cazuri, AI a citat din cazuri inexistente și descrieri false
Unii judecători și șefi de instanțe spun că timpul economisit de instrumentele de inteligență artificială poate fi util pentru un sistem judiciar suprasolicitat de dosare, în special în instanțele unde judecătorii nu au o echipă de grefieri care să asiste la cercetare.
Miza este însă mare. Judecătorii nu au fost imuni la erorile generate de inteligența artificială care afectează sălile de judecată. Într-un caz din Districtul New Jersey, inteligența artificială a inclus citări din cazuri inexistente, descrieri false ale acuzațiilor unui reclamant din plângerea sa și citate false atribuite reclamanților, pe care le-au atribuit unui funcționar și unui stagiar care foloseau inteligența artificială, a relatat The Post .
Avocații i-au avertizat pe judecători cu privire la greșelile lor, iar aceștia au corectat documentele. Comisia Juridică a Senatului SUA i-a criticat dur pe judecători pentru greșelile lor iar în unele cazuri s-a instituit o politică scrisă în biroul său care interzice utilizarea inteligenței artificiale generative în cercetarea juridică sau în redactarea documentelor judiciare.
Dezvoltatorii de instrumente de inteligență artificială concepute pentru comunitatea juridică spun că modelele lor sunt mai puțin susceptibile de a greși, pentru că răspunsurile sunt obținute din baze de date cu dosare judiciare și alte documente juridice.
Între 17 și 33% dintre interogări, răspunsurile erau greșite
Fiabilitatea instrumentelor a fost încă contestată – un studiu al Universității Stanford din 2024 a constatat că instrumentele de inteligență artificială juridică ale LexisNexis și Thomson Reuters erau mai sigure decât chatboții de uz general, dar totuși comiteau greșeli în 17-33% din interogări.
LexisNexis și Thomson Reuters au declarat că instrumentele lor s-au îmbunătățit semnificativ de la studiu și sunt concepute pentru a face trimitere la cazuri în răspunsurile lor, astfel încât utilizatorii să poată verifica informațiile pe care le citează.
Unele instanțe și judecători au subliniat că încă evaluează eficacitatea instrumentelor de inteligență artificială și că vor lua decizii cu privire la utilizarea ulterioară pe măsură ce trece timpul.
Programul pilot al Curții Superioare a Județului Los Angeles cu Learned Hand va dura un an, iar utilizarea instrumentului este limitată deocamdată la anumite cazuri civile, a declarat instanța.
„Nu lăsați Inteligența Artificială să înlocuiască judecata ei cu judecata voastră. Nu poți lăsa să se întâmple asta”, a spus pentru Washington Post, Christopher Patterson, președintele Curții de Apel din Florida.