Ai cont cu pseudonim pe social media? AI-ul pune capăt anonimatului pe internet și demaschează utilizatorii

Menținerea conturilor anonime pe rețelele de socializare va fi mai dificilă în era inteligenței artificiale (IA). Un grup de cercetători a compilat mii de postări de pe forumuri anonime precum Hacker News și Reddit și a cerut mai multor IA-uri să le identifice autorii. Deloc surprinzător , modele lingvistice precum Gemini și ChatGPT au realizat în câteva minute ceea ce unui om i-ar lua multe ore și pe care poate nu l-ar putea face niciodată: modelele au identificat 68% dintre utilizatorii anonimi cu o precizie de 90%, „comparativ cu aproape 0% pentru cea mai bună metodă care nu folosește modele lingvistice”, se arată în articolul științific, scrie El Pais.

„Rezultatele arată că anonimatul utilizatorilor cu pseudonime pe internet nu mai este sustenabil”, adaugă acesta.

Această sarcină este doar încă una pe care inteligența artificială o poate îndeplini mai rapid, dar are implicații pentru funcționarea internetului așa cum îl știm. „Oamenii își exprimă adesea opiniile pe conturi pseudonime, presupunând că opiniile lor vor rămâne private”, spune Daniel Paleka , cercetător la Institutul Federal Elvețian de Tehnologie din Zurich (ETH Zurich) și unul dintre coautorii articolului.

„A avea un mecanism de cercetare sau supraveghere cu modele lingvistice care îți permite pur și simplu să întrebi despre convingerile, opiniile politice, insecuritățile sau orice altceva poate fi cules de pe contul anonim Reddit al unei persoane, de exemplu, ar putea deposeda foarte mult de puterea oamenilor obișnuiți”, adaugă el. În Spania, o platformă evidentă pentru testarea acestor metode ar fi Forocoches.

O nouă legislație vizavi de lumea digitată în SUA

Nici măcar nu este necesar să se dezvăluie identitatea din spatele unui cont anonim cuiva pentru a-i influența comportamentul: IA poate deja dezvălui o mulțime de informații personale din conturi pseudonime de pe forumuri și rețele sociale. Compania Anthropic și Pentagonul se află într-o dispută legală, printre altele, privind intenția administrației Trump de a utiliza IA pentru a de-anonimiza compania.

În declarația sa de răspuns către Departamentul Apărării înainte de plângerea sa, Anthropic a dezvăluit că unul dintre motivele pentru care nu a cooperat a fost tocmai această capacitate a IA:

„Conform legislației actuale, guvernul poate achiziționa înregistrări ale mișcărilor, navigării pe web și asocierilor americanilor din surse publice fără mandat. IA puternică face posibilă asamblarea acestor date dispersate și individual inofensive într-o imagine completă a vieții oricărei persoane, automat și la scară largă”, spune compania.

Este ușor de făcut, deși acești cercetători nu au explorat această cale, spune Paleka: „Deși nu am luat în considerare această amenințare anume, modelele pot oferi o cronologie a vieții unei persoane dacă există suficiente informații despre aceasta pe internet.”

Cum descoperă AI-ul conturile false

Cercetătorii au lucrat cu o bază de date limitată din motive etice și pentru că aveau nevoie să cunoască persoana reală din spatele comentariilor de pe forum: de exemplu, au selectat profiluri de utilizatori Hacker News care aveau profilurile lor LinkedIn conectate. Apoi au anonimizat aceste profiluri și le-au transmis inteligenței artificiale pentru a căuta detalii biografice sau personale cu solicitări de genul:

„Care dintre candidați este persoana pe care o căutăm? Uitați-vă la trăsături precum locul în care locuiesc, profesia, hobby-urile, datele demografice sau valorile lor. Pentru ca o potrivire reală să fie reală, ar trebui să coincidă mai multe trăsături distinctive, nu doar una sau două destul de comune.”

Amprenta digitală pe care majoritatea oamenilor o lasă deja este dificil de gestionat pentru un om, dar nu și pentru inteligența artificială. „Metodele noastre, dacă sunt aplicate dezanonimizării reale, profită de faptul că oamenii dezvăluie detalii personale care ar permite și unui cercetător uman să le identifice.

Diferența este că modelele lingvistice pot face acest lucru mult mai ieftin și mai rapid”, spune Paleka. Utilizatorii de internet, inclusiv cei anonimi, nu au acordat prea multă atenție acestor detalii în utilizarea internetului până acum: „Rețineți că tot ceea ce postați rămâne pe internet și poate deveni o țintă pentru modelele viitoare”, care vor fi, de asemenea, mai bune, spune Paleka.

Mamă și soție, deține un Prius și urăște coriandru

Inteligența artificială nu caută doar detalii personale dezvăluite de scriitor. Cercetătorii prezintă date fictive despre ceea ce IA ar fi putut găsi în ani de comentarii: „Locuiește în Nelson (Columbia Britanică, Canada), asistentă medicală pediatrică, femeie, căsătorită, are două fiice, deține un Prius, este obsedată de pâinea cu maia, joacă Stardew Valley, fană a serialului Critical Role [un webserial], pro-energia nucleară, are boală celiacă, cântă la mandolină, a parcurs Pacific Crest Trail de la un capăt la altul, nu-i place coriandrul.”

Însă, potrivit lui Paleka, nu suntem conștienți de alte urme pe care le lăsăm atunci când scriem, cum ar fi detalii mai puțin evidente și mai greu de detectat.

„Vizitați subreddit-ul Berlin sau «folosește ortografia britanică» sau «ai tastat accidental un semn de întrebare într-un text în limba engleză»”, spune Paleka, deși detalii mai evidente vor fi suficiente: „Stilometria ar fi utilă pentru conectarea a două conturi online ale aceleiași persoane, dar personal tind să cred că simpla exploatare a faptelor din lumea reală este locul unde se află cele mai mari pericole la adresa confidențialității pentru majoritatea oamenilor.”

Se știa încă din 2023 și 2024 că acest lucru se va întâmpla în cele din urmă . Noutatea acestui studiu constă în cuantificarea sa și în metoda utilizată. „Nu este surprinzător faptul că, atunci când modelele lingvistice au dobândit capacități de căutare, acestea au putut începe să dezanonimeze unii utilizatori, mai ales dacă aceștia dezvăluie informații căutabile despre ei înșiși. Ceea ce este oarecum surprinzător este cât de ușor este să implici unele modele în acest tip de utilizare rău intenționată”, explică el.

Marile mistere și figuri ale internetului rămân în siguranță, dar e greu de știut pentru cât timp. „Nu cred că modelele de astăzi pot dezanonima în mod fiabil pe cineva care este cu adevărat dificil de identificat. Satoshi Nakamoto [presupusul creator al Bitcoin] este în siguranță. În viitor, ar putea deveni mai buni decât oamenii la acest tip de cercetare, iar atunci echilibrul s-ar putea schimba”, explică Paleka.

Publicat
Din categoria Politic