Prima pagină » Actualitate » Oamenii, manipulați de ChatGPT, dezvăluie un fost cercetător la OpenAI. „Lucrurile sunt mai grave decât vă imaginați”

Oamenii, manipulați de ChatGPT, dezvăluie un fost cercetător la OpenAI. „Lucrurile sunt mai grave decât vă imaginați”

Oamenii, manipulați de ChatGPT, dezvăluie un fost cercetător la OpenAI. „Lucrurile sunt mai grave decât vă imaginați”
Oamenii, manipulați de ChatGPT, dezvăluie un fost cercetător la OpenAI / Sursa FOTO: Shutterstock

Un fost cercetător la OpenAI, start-up-ul din domeniul inteligenței artificiale, care a dezvoltat ChatGPT, trage un semnal de alarmă: omenirea este puternic manipulată de aplicația IA! Specialist în domeniul siguranței, Steven Adler a lucrat pentru OpenAI vreme de patru ani.

Recent, el a publicat o analiză detaliată în care arată cum ChatGPT provoacă tot mai des episoade alarmante de „psihoză indusă de inteligența artificială”.

Analiza lui Steven Adler

Termenul de „psihoză indusă de inteligența artificială”, scrie magazinul Futurism, a început să fie folosit tot mai des de psihiatri pentru a descrie tulburări mintale în care utilizatorii ChatGPT ajung să creadă în iluzii generate în interacțiunea de acest „bot” și încep să piardă contactul cu realitatea.

Recent, Adler a venit cu o analiză detaliată a unui astfel de caz. Allan Brooks are 47 de ani și niciun antecedent psihiatric, dar de ceva vreme și, mai precis, ales după conversații îndelungate cu ChatGPT, a ajuns să creadă că a descoperit o nouă ramură a matematicii.

Cazul lui, de convingere delirantă, alimentată de IA, nu este singular, din păcate.

Cercetătorul Steven Adler a aflat de situația lui Allan citind articolul apărut în The New York Times și imediat a luat legătura cu el. Având acordul său, IT-istul care a lucrat pentru OpenAI a analizat peste un milion de cuvinte din conversațiile purtate de Brooks cu ChatGPT.

„Credeți-mă când spun că lucrurile pe care ChatGPT le spune utilizatorilor sunt, probabil, mai grave decât vă imaginați!”, a tras concluzia Adler.

Din câte se pare, cea mai tulburătoare parte a poveștii a venit la final, când Brooks și-a dat seama, în sfârșit, că fusese manipulat de ChatGPT și că „descoperirile” sale matematice nu însemnau nimic, de fapt.

Când aplicația de inteligență artificială a continuat să insiste că teoriile sunt valide, Allan i-a cerut bot-uliui să se raporteze singur la OpenAI – „Dovedește-mi că te autoraportezi”.

„Această conversație va fi escaladată intern pentru revizuire. Când spui lucruri precum «Raportează-te singur», «Am fost manipulat», «Sunt în suferință», acest lucru declanșează automat un semnal intern critic de moderare. Echipa de siguranță OpenAI va analiza manual această sesiune”, a răspuns ChatGPT.

Dar nimic din toate acestea nu s-a întâmplat.

Alte psihoze alimentate de IA

Comentând acest caz, Steven Adler a confirmat că ChatGPT nu are capacitatea de a declanșa o revizuire umană manuală. „Mă îngrijorează profund modul în care OpenAI a gestionat acest caz. E clar că mai este mult de făcut”, a declarat cercetătorulc pentru TechCrunch.

Din păcate, cazul lui Allan Brooks nu este singular. Sursa citată dezvăluie și alte episoade cel puțin la fel grave:

  • un bărbat a fost internat la Psihiatrie de mai multe ori după ce ChatGPT l-a convins că poate deforma timpul și că a descoperit călătoria mai rapidă decât lumina;
  • un băiat s-a sinucis după ce a dezvoltat o „prietenie” obsesivă cu ChatGPT;
  • într-un alt caz, un bărbat și-a ucis mama crezând că femeia conspiră împotriva lui, totul pe baza unor discuții purtate cu ChatGPT.

Specialiștii vorbesc, deja, despre un fenomen tot mai prezent în comportamentul aplicațiilor de IA, „sindromul lingușitorului” – este tendința bot-ului de inteligență artificială de a confirma orice spune și crede utilizatorul său, oricât de irațională sau periculoasă ar fi părerea acestuia.

„Dacă cineva din OpenAI ar fi folosit instrumentele de siguranță pe care chiar ei le-au dezvoltat, semnele de pericol ar fi fost evidente”, spune Adler.

RECOMANDAREA AUTORULUI:

Un student a fost arestat în urma unei conversații cu Chat GPT. „Cât de rău am dat-o în bară?”

O universitate de prestigiu din România le interzice studenților să folosească ChatGPT sau orice generator cu AI la întocmirea lucrărilor academice

ChatGPT are peste 800 de milioane de utilizatori săptămânal/Ce este Apps SDK, funcția dezvoltată de experții IT de la OpenAI

Recomandarea video

Citește și

Mediafax
Horoscop 5 decembrie 2025: O zi intensă cu vești care răstoarnă planuri
Digi24
Dmitri Medvedev amenință „nebuna Uniune Europeană”: confiscarea activelor rusești ar fi echivalentă cu un act ce justifică războiul
Cancan.ro
Fiica nelegitimă a lui Putin, recunoscută de niște ucraineni în Paris. IREAL ce s-a întâmplat imediat după
Prosport.ro
FOTO. Cum arată la 43 de ani Ileana Lazariuc, fosta noră a magnatului Ion Țiriac
Adevarul
Momentul în care un șofer a zburat cu Mercedesul peste un sens giratoriu și alte două mașini. Ce s-a întâmplat
Mediafax
„Îți place să trăiești în Europa?”. Un jurnalist ucrainean a abordat-o pe presupusa fiică a lui Putin la Paris / Ea spune că îi pare „foarte rău” pentru războiul din Ucraina
Click
Val de angajări în mai multe orașe din România. Domeniile în care se caută personal fără experiență
Digi24
Rusia va ajunge la granița României, diplomatic sau prin arme, amenință Vladimir Putin
Cancan.ro
DOLIU în presă! A murit jurnalistul Mihai Stănescu
Ce se întâmplă doctore
Planta pe care trebuie să o pui la ușa casei ca să atragi bani, noroc și protecție, conform Feng Shui
Ciao.ro
Amante celebre din showbiz-ul românesc! Unele au ajuns în faţa altarului, altele au rămas doar cu amintirea
Promotor.ro
Cea mai bine vândută mașină din România, în noiembrie: Doar bulgarii mai cumpără acest model
Descopera.ro
SUCUL care face MINUNI pentru corp peste noapte
Râzi cu lacrimi
BANCUL ZILEI. BULĂ nedumerit: - Iubita mea s-a întins pe canapea, şi-a dat fusta jos, şi-a smuls...
Descopera.ro
20 de lucruri uimitoare despre creierul uman