Războiul declanșat de Statele Unite și Israel împotriva Iranului a început după luni de tensiuni și amenințări reciproce. În acest context, presa internațională lansează o ipoteză care, până nu demult, părea desprinsă dintr-un scenariu de film.
Pe 28 februarie, Statele Unite și Israel au lansat un atac comun asupra Iranului. Washingtonul a susținut că urmărește neutralizarea infrastructurii militare și nucleare iraniene, în timp ce Israelul a vorbit despre o perspectivă preventivă. Conflictul a escaladat rapid, iar liderul suprem al Iranului, Ali Khamenei, a fost ucis.
Mai multe publicații occidentale susțin că modelul de inteligență artificială Claude, dezvoltat de Anthropic, ar fi fost utilizat în analiza informațiilor care au stat la baza barajului de rachete lansate asupra Iranului. Conform acestor relatări, AI ar fi fost folosită pentru identificarea țintelor și pentru rularea de simulări strategice.
Anterior, același model ar fi fost folosit, potrivit The Guardian, și în planificarea operațiunii care ar fi dus la capturarea liderului Venezuelei, Nicolas Maduro. Detaliile tehnice nu sunt publice, iar autoritățile americane nu au confirmat modelul exact în care a fost folosită tehnologia. Simpla asociere a unor modele AI comerciale cu operațiunii militare de asemenea amploare a declanșat o dezbatere globală.
Un instrument folosit de milioane de oameni pentru redactarea email-urilor sau rezumarea documentelor ar fi ajuns, conform sursei menționate, parte din lanțul decizional care transformă informația brută în acțiune militară.
CEO-ul Anthropic, Dario Amodei, a intrat într-un conflict public cu președintele Donald Trump după ce a refuzat să relaxeze două „linii roșii” pentru modelul Claude: interdicția utilizării în supraveghere internă în masă și în dezvoltare de arme complet autonome, capabile să selecteze și să lovească ținte fără control uman semnificativ.
Între timp, OpenAI a semnat un acord cu Pentagonul, susținând că include mecanisme stricte de protecție. Dincolo de formulările contractuale, ideea centrală rămâne aceeași: inteligența artificială nu mai este doar un instrument civil.
Analiștii susțin că în lipsa unor acorduri internaționale clare și a unor mecanisme de supraveghere transparente, deciziile de viață și de moarte ar putea fi influențate, tot mai mult, de algoritmi.
Recomandarea autorului: