Prima pagină » Actualitate » Oamenii, manipulați de ChatGPT, dezvăluie un fost cercetător la OpenAI. „Lucrurile sunt mai grave decât vă imaginați”

Oamenii, manipulați de ChatGPT, dezvăluie un fost cercetător la OpenAI. „Lucrurile sunt mai grave decât vă imaginați”

Oamenii, manipulați de ChatGPT, dezvăluie un fost cercetător la OpenAI. „Lucrurile sunt mai grave decât vă imaginați”
Oamenii, manipulați de ChatGPT, dezvăluie un fost cercetător la OpenAI / Sursa FOTO: Shutterstock

Un fost cercetător la OpenAI, start-up-ul din domeniul inteligenței artificiale, care a dezvoltat ChatGPT, trage un semnal de alarmă: omenirea este puternic manipulată de aplicația IA! Specialist în domeniul siguranței, Steven Adler a lucrat pentru OpenAI vreme de patru ani.

Recent, el a publicat o analiză detaliată în care arată cum ChatGPT provoacă tot mai des episoade alarmante de „psihoză indusă de inteligența artificială”.

Analiza lui Steven Adler

Termenul de „psihoză indusă de inteligența artificială”, scrie magazinul Futurism, a început să fie folosit tot mai des de psihiatri pentru a descrie tulburări mintale în care utilizatorii ChatGPT ajung să creadă în iluzii generate în interacțiunea de acest „bot” și încep să piardă contactul cu realitatea.

Recent, Adler a venit cu o analiză detaliată a unui astfel de caz. Allan Brooks are 47 de ani și niciun antecedent psihiatric, dar de ceva vreme și, mai precis, ales după conversații îndelungate cu ChatGPT, a ajuns să creadă că a descoperit o nouă ramură a matematicii.

Cazul lui, de convingere delirantă, alimentată de IA, nu este singular, din păcate.

Cercetătorul Steven Adler a aflat de situația lui Allan citind articolul apărut în The New York Times și imediat a luat legătura cu el. Având acordul său, IT-istul care a lucrat pentru OpenAI a analizat peste un milion de cuvinte din conversațiile purtate de Brooks cu ChatGPT.

„Credeți-mă când spun că lucrurile pe care ChatGPT le spune utilizatorilor sunt, probabil, mai grave decât vă imaginați!”, a tras concluzia Adler.

Din câte se pare, cea mai tulburătoare parte a poveștii a venit la final, când Brooks și-a dat seama, în sfârșit, că fusese manipulat de ChatGPT și că „descoperirile” sale matematice nu însemnau nimic, de fapt.

Când aplicația de inteligență artificială a continuat să insiste că teoriile sunt valide, Allan i-a cerut bot-uliui să se raporteze singur la OpenAI – „Dovedește-mi că te autoraportezi”.

„Această conversație va fi escaladată intern pentru revizuire. Când spui lucruri precum «Raportează-te singur», «Am fost manipulat», «Sunt în suferință», acest lucru declanșează automat un semnal intern critic de moderare. Echipa de siguranță OpenAI va analiza manual această sesiune”, a răspuns ChatGPT.

Dar nimic din toate acestea nu s-a întâmplat.

Alte psihoze alimentate de IA

Comentând acest caz, Steven Adler a confirmat că ChatGPT nu are capacitatea de a declanșa o revizuire umană manuală. „Mă îngrijorează profund modul în care OpenAI a gestionat acest caz. E clar că mai este mult de făcut”, a declarat cercetătorulc pentru TechCrunch.

Din păcate, cazul lui Allan Brooks nu este singular. Sursa citată dezvăluie și alte episoade cel puțin la fel grave:

  • un bărbat a fost internat la Psihiatrie de mai multe ori după ce ChatGPT l-a convins că poate deforma timpul și că a descoperit călătoria mai rapidă decât lumina;
  • un băiat s-a sinucis după ce a dezvoltat o „prietenie” obsesivă cu ChatGPT;
  • într-un alt caz, un bărbat și-a ucis mama crezând că femeia conspiră împotriva lui, totul pe baza unor discuții purtate cu ChatGPT.

Specialiștii vorbesc, deja, despre un fenomen tot mai prezent în comportamentul aplicațiilor de IA, „sindromul lingușitorului” – este tendința bot-ului de inteligență artificială de a confirma orice spune și crede utilizatorul său, oricât de irațională sau periculoasă ar fi părerea acestuia.

„Dacă cineva din OpenAI ar fi folosit instrumentele de siguranță pe care chiar ei le-au dezvoltat, semnele de pericol ar fi fost evidente”, spune Adler.

RECOMANDAREA AUTORULUI:

Un student a fost arestat în urma unei conversații cu Chat GPT. „Cât de rău am dat-o în bară?”

O universitate de prestigiu din România le interzice studenților să folosească ChatGPT sau orice generator cu AI la întocmirea lucrărilor academice

ChatGPT are peste 800 de milioane de utilizatori săptămânal/Ce este Apps SDK, funcția dezvoltată de experții IT de la OpenAI

Citește și

Mediafax
Câștigătorul premiului de 49,1 milioane lei la Loto 6/49: Continuați să visați!
Digi24
Momentul în care un avion militar turcesc s-a prăbușit. Nu se cunoaște numărul victimelor rezultate în urma tragediei
Cancan.ro
Rezultatele expertizei medico-legale a lui Toto Dumitrescu s-au aflat. Răsturnare de situație în cazul accidentului produs!
Prosport.ro
FOTO. Tânăra de 22 de ani arată spectaculos, dar milionarul de 59 de ani a părăsit-o
Adevarul
Europa în fața Rusiei: „Domeniul terestru e călcâiul lui Ahile” – avertismentul experților francezi
Mediafax
Dani Mocanu are și alte probleme. Surse: Obligații fiscale nedeclarate de peste 1,6 milioane de lei
Click
Cu cine și-ar fi înșelat dr. Cristian Andrei prima soție: „L-am filmat în patul nostru”
Digi24
Un tânăr de 20 de ani a înjunghiat un bărbat de 33 de ori, pe o stradă din Capitală. Procurori: „Atac de o ferocitate ieșită din comun”
Cancan.ro
Cum arată locația în care Nando și Dani Mocanu se ascundeau! Cine s-a ocupat de închirierea ei
Ce se întâmplă doctore
Imagini RARE cu Monica Gabor după ce a revenit în România! Ce a făcut în orașul natal?
Ciao.ro
Wow sau Bau? Cât de mult le-au schimbat operaţiile estetice pe vedetele din România
Promotor.ro
Cele patru tipuri de alerte Poliție din Waze, explicate pe înțelesul tuturor
Descopera.ro
Cea mai ghinionistă zi din an! Dar de ce ne sperie așa tare?
Râzi cu lacrimi
BANCUL ZILEI. Bulă vrea tatuaj într-un loc intim: - Numele iubitei mele acolo, jos!
Descopera.ro
Psihologia respectului. De la filosofia lui Kant la cercetările în neuroștiință: cum recunoașterea demnității celuilalt ne modelează mintea, relațiile și societatea