Riscul nu este doar cel al confidențialității. Este vorba despre autonomia psihologică a fiecăruia dintre noi.
Zoë Hitzig a lucrat mai mulți ani ca cercetătoare pentru OpenAI, scrie El Economista.
La începutul anului 2026, a decis să plece din compania condusă de Sam Altman. Motivul a fost un conflict legat de etica platformei ChatGPT. Mai precis, a fost deranjată de decizia de a introduce publicitate în chatbot.
Ce le spun oamenii chatbot-ului fără să realizeze pericolul
De la lansarea ChatGPT, tot mai mulți utilizatori au început să folosească platforma pentru întrebări personale și private. Le povestesc chatbot-urilor temerile medicale, problemele de cuplu și credințele lor despre Dumnezeu și viața de apoi.
Au făcut-o crezând că interacționează cu o entitate neutră, fără interese ascunse.
Odată cu intrarea banilor în ecuație, platforma capătă intenții ascunse, avertizează Hitzig. Publicitatea modernă se bazează pe personalizare. Iar ChatGPT deține date extrem de sensibile despre fiecare utilizator.
„OpenAI deține cea mai detaliată înregistrare a gândurilor private ale oamenilor care a fost vreodată adunată”, spune fosta cercetătoare.
Întrebarea ei este directă: putem avea încredere că nu vor abuza de aceste date?
Pericolul real nu este reclama, ci manipularea psihologică
Hitzig avertizează că riscul depășește simpla bombardare cu reclame personalizate. Inteligența artificială poate influența psihologic utilizatorii în funcție de interesele companiilor. „Nu este doar o chestiune de confidențialitate: este o chestiune de autonomie psihologică”, afirmă ea.
Costurile operaționale extrem de ridicate împing companiile tehnologice spre modele de monetizare agresive. Direcția urmată seamănă tot mai mult cu cea a Facebook: publicitate și exploatarea datelor personale. Această evoluție vine în contradicție cu angajamentele inițiale privind confidențialitatea utilizatorilor.