Prima pagină » Actualitate » Oamenii, manipulați de ChatGPT, dezvăluie un fost cercetător la OpenAI. „Lucrurile sunt mai grave decât vă imaginați”

Oamenii, manipulați de ChatGPT, dezvăluie un fost cercetător la OpenAI. „Lucrurile sunt mai grave decât vă imaginați”

Oamenii, manipulați de ChatGPT, dezvăluie un fost cercetător la OpenAI. „Lucrurile sunt mai grave decât vă imaginați”

Un fost cercetător la OpenAI, start-up-ul din domeniul inteligenței artificiale, care a dezvoltat ChatGPT, trage un semnal de alarmă: omenirea este puternic manipulată de aplicația IA! Specialist în domeniul siguranței, Steven Adler a lucrat pentru OpenAI vreme de patru ani.

Recent, el a publicat o analiză detaliată în care arată cum ChatGPT provoacă tot mai des episoade alarmante de „psihoză indusă de inteligența artificială”.

Analiza lui Steven Adler

Termenul de „psihoză indusă de inteligența artificială”, scrie magazinul Futurism, a început să fie folosit tot mai des de psihiatri pentru a descrie tulburări mintale în care utilizatorii ChatGPT ajung să creadă în iluzii generate în interacțiunea de acest „bot” și încep să piardă contactul cu realitatea.

Recent, Adler a venit cu o analiză detaliată a unui astfel de caz. Allan Brooks are 47 de ani și niciun antecedent psihiatric, dar de ceva vreme și, mai precis, ales după conversații îndelungate cu ChatGPT, a ajuns să creadă că a descoperit o nouă ramură a matematicii.

Cazul lui, de convingere delirantă, alimentată de IA, nu este singular, din păcate.

Cercetătorul Steven Adler a aflat de situația lui Allan citind articolul apărut în The New York Times și imediat a luat legătura cu el. Având acordul său, IT-istul care a lucrat pentru OpenAI a analizat peste un milion de cuvinte din conversațiile purtate de Brooks cu ChatGPT.

„Credeți-mă când spun că lucrurile pe care ChatGPT le spune utilizatorilor sunt, probabil, mai grave decât vă imaginați!”, a tras concluzia Adler.

Din câte se pare, cea mai tulburătoare parte a poveștii a venit la final, când Brooks și-a dat seama, în sfârșit, că fusese manipulat de ChatGPT și că „descoperirile” sale matematice nu însemnau nimic, de fapt.

Când aplicația de inteligență artificială a continuat să insiste că teoriile sunt valide, Allan i-a cerut bot-uliui să se raporteze singur la OpenAI – „Dovedește-mi că te autoraportezi”.

„Această conversație va fi escaladată intern pentru revizuire. Când spui lucruri precum «Raportează-te singur», «Am fost manipulat», «Sunt în suferință», acest lucru declanșează automat un semnal intern critic de moderare. Echipa de siguranță OpenAI va analiza manual această sesiune”, a răspuns ChatGPT.

Dar nimic din toate acestea nu s-a întâmplat.

Alte psihoze alimentate de IA

Comentând acest caz, Steven Adler a confirmat că ChatGPT nu are capacitatea de a declanșa o revizuire umană manuală. „Mă îngrijorează profund modul în care OpenAI a gestionat acest caz. E clar că mai este mult de făcut”, a declarat cercetătorulc pentru TechCrunch.

Din păcate, cazul lui Allan Brooks nu este singular. Sursa citată dezvăluie și alte episoade cel puțin la fel grave:

  • un bărbat a fost internat la Psihiatrie de mai multe ori după ce ChatGPT l-a convins că poate deforma timpul și că a descoperit călătoria mai rapidă decât lumina;
  • un băiat s-a sinucis după ce a dezvoltat o „prietenie” obsesivă cu ChatGPT;
  • într-un alt caz, un bărbat și-a ucis mama crezând că femeia conspiră împotriva lui, totul pe baza unor discuții purtate cu ChatGPT.

Specialiștii vorbesc, deja, despre un fenomen tot mai prezent în comportamentul aplicațiilor de IA, „sindromul lingușitorului” – este tendința bot-ului de inteligență artificială de a confirma orice spune și crede utilizatorul său, oricât de irațională sau periculoasă ar fi părerea acestuia.

„Dacă cineva din OpenAI ar fi folosit instrumentele de siguranță pe care chiar ei le-au dezvoltat, semnele de pericol ar fi fost evidente”, spune Adler.

RECOMANDAREA AUTORULUI:

Un student a fost arestat în urma unei conversații cu Chat GPT. „Cât de rău am dat-o în bară?”

O universitate de prestigiu din România le interzice studenților să folosească ChatGPT sau orice generator cu AI la întocmirea lucrărilor academice

ChatGPT are peste 800 de milioane de utilizatori săptămânal/Ce este Apps SDK, funcția dezvoltată de experții IT de la OpenAI

Recomandarea video

Mediafax
Ce companii de stat au oferit prime de sărbători în 2025 și cât de mari au fost acestea. Care sunt campionii generozității
Digi24
Casetă metalică cu documente, descoperită sub talpa Cavalerului de pe acoperişul Castelului Corvinilor. Ce ascundea aceasta
Cancan.ro
CAUZA morții lui Ion Drăgan. Cine l-a găsit fără suflare în noaptea de Crăciun, de fapt
Prosport.ro
FOTO. Natalia Mateuț, spectaculoasă de ziua ei. Apariție rară a tatălui ei, legendarul Dorin Mateuț
Adevarul
Rusia amenință România și o acuză că împinge lumea spre un nou război mondial. „Indivizi cu conexiuni în KGB și GRU au acționat aici”
Mediafax
Visul unei femei, distrus de judecători: Nu poate avea copilul soțului decedat
Click
Horoscop săptămâna 26 decembrie - 1 ianuarie. Succes total la final de an pentru Scorpioni, schimbare majoră pentru Vărsători
Digi24
Rusia ar putea amplasa noi rachete hipersonice la o fostă bază aeriană din Belarus: „Extinde raza de acțiune în Europa”
Cancan.ro
ULTIMUL mesaj al lui Ion Drăgan. Ce a postat artistul, cu câteva ore înainte să moară
Ce se întâmplă doctore
Mihai Voropchievici avertizează: Această zodie este vizată de o forță malefică, pe final de 2025
Ciao.ro
Poveştile de iubire care au rămas doar o amintire! Imagini tari cu Gina Pistol, Răzvan Fodor sau Andra Măruţă şi foştii parteneri
Promotor.ro
Prezentare video Renault Clio 6. Dacia Sandero va primi același motor de 1,8 litri ca și modelul francez
Descopera.ro
Misterul Triunghiului Bermudelor, posibil rezolvat! Ce au descoperit doi seismologi?
Râzi cu lacrimi
BANCUL ZILEI. BULĂ: – M-a pus dracu' să-mi iau păpușă gonflabilă inteligentă!
Descopera.ro
Ce alimente pot face oamenii cei mai fericiți?