Un fost cercetător al Anthropic care se ocupa de „dresarea” AI-ului trage un semnal de alarmă: „Inteligența artificială este un pericol existențial”

Publicat: 15 02. 2026, 22:31

Mrinank Sharma, un expert de top în siguranța A.I. de la Anthropic, creatorul agentului Claude, a demisionat recent și a lansat un avertisment sumbru cu privire la amenințarea pe care o aduce avansul inteligenței artificiale. Sharma a avertizat că A.I.-ul reprezintă un pericol existențial pentru omenire, iar ritmul rapid al inovației, care depășește măsurile de siguranță, crește riscurile de utilizare necontrolată a inteligenței artificiale.

Dezvoltarea inteligenței artificiale nu este gestionată corespunzător

Mrinank Sharma și-a exprimat îngrijorarea că dezvoltarea inteligenței artificiale nu este gestionată corespunzător și pune lumea în pericol. Pe lângă riscurile existențiale generale, se menționează teama că inovațiile rapide pot fi folosite greșit, cum ar fi în crearea de arme biologice.

Sharma este departe de a fi singura persoană care avertizează asupra acestui pericol. Recent, o postare a antreprenorului Matt Shimer, intitulată „Se întâmplă ceva important”, a devenit virală pe internet. Investitorul Jason Calacanis a scris și el pe X, unde a zis că „nu am văzut niciodată atât de mulți experți exprimându-și preocupările atât de puternic, frecvent și cu atâta îngrijorare așa cum am văzut cu inteligența artificială”.

Sharma se asigura că A.I.-ul respectă valorile umane

Până la demisia sa, Sharma a condus echipa de Cercetare a Măsurilor de Protecție din cadrul Anthropic, unde a fost considerat un cercetător de top în domeniul alinierii A.I. – asigurarea că sistemele de inteligență artificială respectă valorile umane.

În scrisoarea sa de demisie, vizualizată de milioane de ori pe platforma X, Sharma a făcut câteva afirmații alarmante. Acesta a precizat că pericolul nu vine doar din partea inteligenței artificiale sau a armelor biologice, ci dintr-o serie de crize interconectate pe care le-a numit „policriză”. Cercetătorul a sugerat că î interiorul companiilor există presiuni constante pentru a lăsa la o parte „ceea ce contează mai mult”, adică siguranța, în favoarea vitezei de dezvoltare.

 

„Lumea este în pericol. Și nu doar din cauza AI sau a armelor biologice, ci din cauza unei întregi serii de crize interconectate care se desfășoară chiar în acest moment. Se pare că ne apropiem de un prag în care înțelepciunea noastră trebuie să crească în aceeași măsură cu capacitatea noastră de a influența lumea, altfel vom suporta consecințele. În plus, de-a lungul timpului petrecut aici, am văzut în repetate rânduri cât de greu este să lăsăm cu adevărat valorile noastre să ne ghideze acțiunile. Am văzut acest lucru în mine însumi, în cadrul organizației, unde ne confruntăm constant cu presiuni de a lăsa deoparte ceea ce contează cel mai mult”, a scris Sharma în scrisoarea sa de demisie.

 

 

Ultimul său proiect la Anthropic s-a concentrat pe modul în care asistenții A.I. ar putea să îi facă pe oameni „mai puțin umani” sau să le distorsioneze umanitatea și simțul realității. Plecarea lui Sharma nu este doar un incident izolat, ci face parte dintr-un val de demisii ale experților în siguranță de la marile companii care dezvoltă inteligența artificială, Anthropic și OpenAI. Acești cercetători acuză adesea faptul că profitul și competiția pentru a lansa modele tot mai puternice trec înaintea protocoalelor de siguranță.


Recomandările autorului:

„Europa este un gigant adormit”. Keir Starmer îndeamnă la Conferința de Securitate de la München la trezire militară și la un NATO mai european

Statele Unite l-au capturat pe Maduro cu ajutorul inteligenței artificiale. Pentagonul a folosit modelul Claude în timpul raidului din Venezuela

Zelenski și Orban, replici tăioase în marja Conferinței de la München. După ironia la adresa mărimii burții lui Orban, premierul maghiar ripostează