Conversațiile cu inteligența artificială nu sunt protejate de lege, avertizează specialiștii în etică și drept. Confidențialitatea lipsește, iar utilizatorii își asumă riscuri serioase atunci când tratează ChatGPT ca pe un terapeut sau avocat.
Declarațiile recente ale CEO-ului OpenAI, Sam Altman, privind lipsa unei protecții juridice a conversațiilor cu ChatGPT, readuc în prim-plan pericolele ascunse ale interacțiunii cu inteligența artificială.
Eticieni, juriști și specialiști în educație atrag atenția că mulți utilizatori tratează AI-ul ca pe un confident de încredere, fără să înțeleagă că riscurile sunt reale.
„Internetul este spațiu public, prin urmare declarațiile lui Sam Altman nu ar trebui să ne ia prin surprindere”, avertizează Ana Ruxandra Badea, doctor în bioetică.
Ea spune că, spre deosebire de spațiile publice clasice, internetul este controlat de entități private, iar utilizatorii nu mai beneficiază de protecția garantată de stat.
Badea atrage atenția că generațiile tinere, în special generația Z, sunt cele mai expuse, neavând un reper real în lipsa unei lumi pre-digitale: „Le lipsesc instrumentele necesare unei atitudini obiective și circumspecte asupra mediului virtual.”
Această vulnerabilitate se traduce prin tendința de antropomorfizare a AI-ului.
„Inteligența unui sistem AI nu are nimic a face cu inteligența umană, așa cum acțiunea de ‘chatting’ cu ChatGPT nu are nimic a face cu dialogul interuman”, spune eticiana.
În lipsa unor reglementări clare, OpenAI și alte companii care dezvoltă astfel de tehnologii au o obligație morală de a avertiza utilizatorii. Avertismentele ar trebui să descurajeze tendințele periculoase de a transforma AI-ul în terapeut, avocat sau confesor.
Avocata Ruxandra Vișoiu, co-fondatoarea R&R Partners, confirmă că „nu sunt protejate legal aceste interacțiuni”. Mai mult, crede că oamenii nu înțeleg prețul real al acestor confesiuni: „Aceste informații pe care i le furnizăm AI-ului au un preț. Nimic nu este cu adevărat gratuit în ziua de azi.”
„Spre deosebire de un avocat sau psiholog, AI-ul nu e acoperit de regimul de confidențialitate prevăzut de lege”, explică Vișoiu. Totuși, ea nu crede că aceste conversații pot fi folosite ușor în instanță.
„Dacă, de exemplu, îi spun AI-ului: «am comis o faptă penală», asta nu înseamnă că mă inculpă în mod automat. Nu văd cum acea informație ar putea fi folosită ca probă în instanță”, spune avocata, care precizează că doar într-un caz extrem, precum o anchetă penală în curs, conversațiile ar putea fi analizate.
Declarațiile lui Sam Altman vin în contextul în care OpenAI se confruntă cu un proces intentat de The New York Times, care a cerut salvarea conversațiilor utilizatorilor ChatGPT. Compania consideră cererea „un abuz de putere” și a anunțat că face apel.
Într-un episod recent al podcastului This Past Weekend, Altman a declarat că: „Oamenii vorbesc cu ChatGPT despre cele mai personale lucruri din viața lor”. El a adăugat că, în prezent, aceste conversații nu sunt protejate juridic și că „ar trebui să existe același concept de intimitate ca în dialogul cu un avocat sau terapeut.”
Vișoiu avertizează că reglementările europene actuale în domeniul AI „nu oferă soluții reale” și că nu putem spera la clarificări legislative în viitorul apropiat.
„Ce încerc să spun este: nu divulga într-un chat cu AI ceea ce n-ai vrea să afle nimeni altcineva. Poți pune întrebări generale, dar evită exemple concrete din viața ta”, recomandă ea.