AI nu a fost responsabil pentru atacul asupra școlii din Iran: deciziile umane au provocat tragedia
Atacul asupra școlii primare Shajareh Tayyebeh din Minab, Iran, a ucis aproape 180 de persoane, majoritatea fete între 7 și 12 ani. În centrul dezbaterilor mediatice s-a aflat un chatbot, dar anchetele arată că responsabilitatea reală revine deciziilor și sistemelor umane care au permis tragedia, conform materialului publicat de The Guardian.
Atacul și victimele
Pe 28 februarie 2026, în prima dimineață a Operațiunii Epic Fury, forțele americane au bombardat școala primară Shajareh Tayyebeh din Minab, sudul Iranului, lovind clădirea de cel puțin două ori în timpul orelor de curs.
Între 175 și 180 de persoane și-au pierdut viața, majoritatea fiind fete între 7 și 12 ani. În zilele următoare, presa internațională s-a concentrat pe rolul chatbotului Claude în alegerea țintei, ignorând sistemul real folosit pentru planificarea atacului: Maven, dezvoltat de Palantir Technologies, care combină imagini satelitare, date senzoriale și informații de semnale pentru a identifica și executa țintele militare.
Eșecul sistemelor și responsabilitatea umană
Școala fusese clasificată ca facilitate militară într-o bază de date care nu reflecta transformarea sa într-o unitate educațională. Maven, conceput să accelereze lanțul decizional, a funcționat fără intervenție judicioasă a oamenilor. Obsesia pentru tehnologie și viteza în luarea deciziilor au eclipsat verificarea critică, transformând o eroare într-o tragedie.
Lecții istorice: Vietnam și Operation Igloo White
Paradoxul nu este nou. La sfârșitul anilor 1960, SUA s-au confruntat cu probleme similare în Vietnam. Operațiunea Igloo White, un program de un miliard de dolari pe an, a plasat 20.000 de senzori acustici și seismici de-a lungul traseului Ho Chi Minh.
Senzorii trimiteau date către avioane și calculatoare IBM 360 pentru a ghida atacurile aeriene asupra convoaielor. Sistemul detecta vibrații, dar nu putea diferenția un camion de un car cu boi. Nord-vietnamezii au păcălit sistemul cu înregistrări și animale.
Aeronava a raportat 46.000 de camioane distruse, depășind estimările reale. Un exemplu de „tehnologie care măsoară doar propria performanță”.
Historianul Bernard Nalty a descris calculul victimelor ca „o metafizică mai degrabă decât matematică”.
Michael Sherry și William Thomas arată că logica de măsurarea și optimizarea fără a verifica efectul real există de decenii, încă din doctrina bombardamentelor precise din al Doilea Război Mondial.
Fricțiunea, cum spunea Carl von Clausewitz, rămâne locul unde se formează judecata. Comprimarea lanțului decizional elimină fricțiunea și poate transforma eroarea în catastrofă.