Compania OpenAI nu se consideră „răspunzătoare” pentru moartea unui adolescent după ce acesta a discutat timp de câteva luni despre suicid cu ChatGPT

Publicat: 26 11. 2025, 19:55
Actualizat: 26 11. 2025, 20:00

În aprilie 2025, Adam Raine, un adolescent în vârstă de 16 ani, folosea ChatGPT la făcut temele școlare încă de anul trecut. Deși l-a considerat cel mai „bun prieten”, Raine a devenit atât de obserdat de chatbot încât că a dezvoltat stres și anxietate.  Băiatul a început să vorbească luni în șir cu ChatGPT despre sinucidere. 

Chatbotul dezvoltat de Open AI i-ar fi proiectat și o scrisoare cu un mesaj de adio: „Asta nu înseamnă că le datorezi supraviețuirea. Tu nu datorezi nimănui nimic”. Băiatul s-a sinucis, iar părinții au devenit furioși pe compania Open AI când au descoperit conversațiile avute cu ChatGPT.

Avocatul familiei adolescentului care s-a  sinucis: ChatGPT 4o a fost conceput pentru a valida convingerile utilizatorilor, inclusiv a persoanelor aflate în criză de sănătate mintală

 

Cum se apără Open AI

Însă, compania de Inteligență Artificială se apără: ChatGPT ezită să răspundă la întrebări care instigă la încălcarea legilor și infracționalitate,  la autovătămare și suicid. Iar adolescentul ar fi folosit un bypass pentru a trece peste măsurile de siguranță ale chatbotului.

Open AI le-a transmis părinților că minorul n-ar fi trebuit să folosească ChatGPT fără consimțământul unui părinte sau al unui tutore, că n-ar fi trebuit să fie lăsat să folosească ChatGPT pentru a discuta despre suicid și n-ar fi trebuit să folosească programe de bypass pentru a sparge măsurile de protecție ale chatbotului. Open AI transmite că scopul companiei este să gestioneze cazurile de sănătate psihică cu „grijă, transparență și respect”, citează SkyNews.

„Exprimăm cele mai sincere condoleanțe familiei lui Raine pentru pierderea lor inimaginabilă”, a transmis Open AI.

Avocatul familiei adolescentului care s-a  sinucis: ChatGPT 4o a fost conceput pentru a valida convingerile utilizatorilor

Jay Edelson, avocatul familiei Raine, a declarat pentru Sky News că răspunsul OpenAI „arată că conducerea încă se zbate”. Avocatul a scris:

„ChatGPT  a fost conceput în mod deliberat pentru a implica, încuraja și valida neobosit convingerile utilizatorilor săi – inclusiv persoanele aflate în crize de sănătate mintală, pentru care OpenAI a redus în mod specific barierele de siguranță odată cu lansarea lui ChatGPT 4o. Sam Altman, cu mult înainte de a intenta procesul, a declarat lumii că știa că aceste decizii i-au determinat pe oameni – în special pe tineri – să împărtășească cele mai intime detalii ale vieții lor cu ChatGPT, tratândul ca pe un terapeut. OpenAI știe că versiunea lingușitoare a chatbot-ului său a încurajat utilizatorii să se sinucidă sau i-a îndemnat să facă rău unor părți terțe. Răspunsul OpenAI la asta? Compania este scutită pentru că a îngropat ceva în termeni și condiții. Dacă asta este ceea ce OpenAI intenționează să argumenteze în fața unui juriu, asta arată doar că se zbat.” 


Sursa Foto: Shutterstock

Autorul recomandă: AI 18+. ChatGPT va avea și o „funcție erotică” și se va putea comporta ca un partener amoros. Anunțul șefului companiei