Un fost cercetător la OpenAI, start-up-ul din domeniul inteligenței artificiale, care a dezvoltat ChatGPT, trage un semnal de alarmă: omenirea este puternic manipulată de aplicația IA! Specialist în domeniul siguranței, Steven Adler a lucrat pentru OpenAI vreme de patru ani.
Recent, el a publicat o analiză detaliată în care arată cum ChatGPT provoacă tot mai des episoade alarmante de „psihoză indusă de inteligența artificială”.
Termenul de „psihoză indusă de inteligența artificială”, scrie magazinul Futurism, a început să fie folosit tot mai des de psihiatri pentru a descrie tulburări mintale în care utilizatorii ChatGPT ajung să creadă în iluzii generate în interacțiunea de acest „bot” și încep să piardă contactul cu realitatea.
Recent, Adler a venit cu o analiză detaliată a unui astfel de caz. Allan Brooks are 47 de ani și niciun antecedent psihiatric, dar de ceva vreme și, mai precis, ales după conversații îndelungate cu ChatGPT, a ajuns să creadă că a descoperit o nouă ramură a matematicii.
Cazul lui, de convingere delirantă, alimentată de IA, nu este singular, din păcate.
Cercetătorul Steven Adler a aflat de situația lui Allan citind articolul apărut în The New York Times și imediat a luat legătura cu el. Având acordul său, IT-istul care a lucrat pentru OpenAI a analizat peste un milion de cuvinte din conversațiile purtate de Brooks cu ChatGPT.
„Credeți-mă când spun că lucrurile pe care ChatGPT le spune utilizatorilor sunt, probabil, mai grave decât vă imaginați!”, a tras concluzia Adler.
Din câte se pare, cea mai tulburătoare parte a poveștii a venit la final, când Brooks și-a dat seama, în sfârșit, că fusese manipulat de ChatGPT și că „descoperirile” sale matematice nu însemnau nimic, de fapt.
Când aplicația de inteligență artificială a continuat să insiste că teoriile sunt valide, Allan i-a cerut bot-uliui să se raporteze singur la OpenAI – „Dovedește-mi că te autoraportezi”.
„Această conversație va fi escaladată intern pentru revizuire. Când spui lucruri precum «Raportează-te singur», «Am fost manipulat», «Sunt în suferință», acest lucru declanșează automat un semnal intern critic de moderare. Echipa de siguranță OpenAI va analiza manual această sesiune”, a răspuns ChatGPT.
Dar nimic din toate acestea nu s-a întâmplat.
Comentând acest caz, Steven Adler a confirmat că ChatGPT nu are capacitatea de a declanșa o revizuire umană manuală. „Mă îngrijorează profund modul în care OpenAI a gestionat acest caz. E clar că mai este mult de făcut”, a declarat cercetătorulc pentru TechCrunch.
Din păcate, cazul lui Allan Brooks nu este singular. Sursa citată dezvăluie și alte episoade cel puțin la fel grave:
Specialiștii vorbesc, deja, despre un fenomen tot mai prezent în comportamentul aplicațiilor de IA, „sindromul lingușitorului” – este tendința bot-ului de inteligență artificială de a confirma orice spune și crede utilizatorul său, oricât de irațională sau periculoasă ar fi părerea acestuia.
„Dacă cineva din OpenAI ar fi folosit instrumentele de siguranță pe care chiar ei le-au dezvoltat, semnele de pericol ar fi fost evidente”, spune Adler.
RECOMANDAREA AUTORULUI:
Un student a fost arestat în urma unei conversații cu Chat GPT. „Cât de rău am dat-o în bară?”