Apariția modelelor lingvistice mari (LLM) – tip de inteligență artificială (IA) care excelează la prelucrare, înțelegere și generarea limbajului uman – și a modelelor de fundație multimodale a început deja să remodeleze caracterul războiului clasic. În timpul operațiunii ucrainene „Spiderweb” din iunie, dronele ucrainene au trecut la navigație autonomă asistată de inteligență artificială pentru a ataca mai multe aerodromuri rusești.
După ce GPS-ul standard și legăturile de comunicații au fost dezactivate de bruiajele rusești, senzorii încorporați și procesul decizional preprogramat au însemnat că „țintirea de rezervă prin IA” a preluat controlul.
Atacul, cel mai lung atac al Ucrainei din conflict de până acum, a dus la distrugerea avioanelor rusești în valoare de miliarde de dolari.
„Însă automatizarea și viteza de procesare a datelor — identificarea imaginilor, logistica și detectarea tiparelor — reprezintă doar o parte a poveștii. O transformare, probabil, mai semnificativă, este în curs de desfășurare, către cunoașterea sintetică în cadrul sistemelor de inteligență artificială”, notează John James și Alia Brahimi pentru Atlantic Council.
Inițiativa Savantului Nebun (Mad Scientist) al Armatei SUA și programul de Analiză Strategică a Prospectivei al NATO au identificat simularea adversarului bazată pe inteligență artificială ca fiind esențială pentru pregătirea forțelor comune pentru medii decizionale contestate.
Aceasta implică – explică John James și Alia Brahimi – cartografierea prejudecăților adversarului, iluminarea punctelor moarte cognitive interne și prognozarea escaladărilor bazate pe narațiune.
„Ideea este de a promova ceea ce a fost numită «empatie strategică» – efortul disciplinat de a înțelege modul în care adversarii își percep interesele, amenințările și oportunitățile – și de a reduce riscurile de escaladare accidentală.
Capacitatea de a interpreta și anticipa cu exactitate comportamentele și intențiile strategice ale adversarilor s-ar putea dovedi a fi factorul suprem al depășirii concurenței cognitive, înțeleasă aici ca abilitatea demonstrabilă de a emula, prezice și depăși ciclurile de decizie ale adversarului.
În practică, aceasta se măsoară prin reducerea timpului de decizie, o precizie mai mare în prognozarea escaladării și validată în funcție de comportamentul observat în rezultatele scenariilor falsificabile. Într-o eră definită de concursul percepțiilor, integrarea în siguranță și cu succes a cogniției sintetice în capacitățile de apărare s-ar putea dovedi decisivă.
Ca atare, integrarea nuanțelor culturale, istorice și ideologice în sistemele cognitiv-emulative va fi importantă pentru a asigura superioritatea strategică a Statelor Unite. La urma urmei, se pare că Beijingul investește deja în cadre de IA pentru uz militar”, avertizează John James și Alia Brahimi.
Esența eforturilor de a simula raționamentul adversarial reiese dintr-o dualitate cognitivă între conștiința predată și conștiința hrănită. „Aceasta nu este o terminologie standard a inteligenței artificiale, ci un cadru conceptual pe care l-am introdus pentru a distinge între două moduri de raționament”, continuă John James și Alia Brahimi.
„Conștiința predată se referă la învățarea structurată, fapte și logică procedurală. Conștiința hrănită , în schimb, provine din cultură, istorie, traumă, identitate și întărire emoțională – forțele care modelează modul în care un actor interpretează riscul, legitimitatea și moștenirea.
Pentru a «gândi mai bine», IA trebuie să depășească simpla analiză a datelor structurate. Trebuie să încorporeze memoria istorică, viziunile culturale asupra lumii, interpretările simbolice și factorii ideologici ai conflictului.
De exemplu, un comandant al Armatei Populare de Eliberare (APL) influențat de războiul sino-vietnamez din 1979 poate da dovadă de prudență pe terenul muntos, un detaliu invizibil pentru majoritatea modelelor automatizate, dar accesibil maeștrilor în drept instruiți în memoriile, doctrina și istoriografia APL.
Ele sunt prezente în mintea adversarilor, modelate de decenii, dacă nu chiar secole, de istorie, traume și îndoctrinare politică. Acesta este substratul cognitiv al acțiunii strategice și nu poate fi aproximat doar prin cunoștințe predate”, continuă cei doi autori ai analizei publicate de Atlantic Council.
„Luați în considerare amenințarea reprezentată de grupările jihadiste precum Statul Islamic din Irak și al-Sham sau ISIS și Boko Haram, care nu aderă la logica strategică clasică”, exemplifică autorii analizei..
„Comportamentele lor sunt modelate de escatologia religioasă (n.red. – doctrina destinul final al omenirii, sfârșitul lumii și judecata de apoi, studiată prin prisma credinței într-o existență individuală după moarte și a destinului ultim al lumii și a speciei umane), nemulțumirile istorice și teatrul narativ.
Acestea folosesc violența spectaculoasă și frica ritualizată pentru a-și susține atractivitatea ideologică, angajându-se adesea într-un război epistemic împotriva influenței occidentale percepute și folosind brutalitatea ca parte a construcției identității. Un model bazat exclusiv pe date s-ar putea concentra pe numărul de luptători, frecvența atacurilor sau conversațiile interceptate, omițând în același timp logica simbolică care animă aceste tipare.
Este vorba despre un sistem care încorporează elemente cognitive stratificate în importanța geografiei sacre și modelarea scărilor teologice de escaladare – unde martiriul este stimulat – și rolul radicalizării online, unde structurile de comandă sunt înlocuite de contagiunea narativă.
Sistemele de inteligență artificială cultivate, antrenate pe texte religioase, manifeste ideologice și mărturii ale martirilor, ar putea fi capabile să simuleze logica decizională a acestor actori «neraționali», oferind informații predictive despre – de exemplu – momentul în care un eveniment simbolic ar putea declanșa un atentat sinucigaș cu bombă sau când decapitarea conducerii poate duce la fragmentare și divizare către ramificații extreme”, mai scriu John James și Alia Brahimi.
Fără o conștiință dezvoltată, chiar și cele mai avansate sisteme bazate pe inteligență artificială riscă să eșueze în interpretarea corectă a comportamentelor complexe adverse, a intențiilor simbolice și a pragurilor culturale. Eficacitatea startegică este, astfel, subminată.
În timp ce conștiința predată permite unui model să reproducă planificarea tactică sau normele doctrinare, conștiința hrănită simulează modul în care un factor de decizie înțelege riscul, percepe adversarii și cântărește moștenirea personală în raport cu mitologia națională, explică autorii analizei.
„Acest lucru permite unui sistem de inteligență artificială să raționeze ca un om într-un context real, în loc să reproducă pur și simplu un comportament superficial. Combinată, conștiința predată și hrănită adâncește empatia strategică.
Totuși, pe măsură ce sistemele de inteligență artificială cu funcții cognitive sintetice încep să modeleze dinamic operațiunile militare, acestea vor necesita cadre de responsabilitate, supraveghere multidisciplinară și protocoale de guvernanță.
Generalul prusac Carl von Clausewitz a observat că «războiul este tărâmul incertitudinii; trei sferturi dintre factorii pe care se bazează acțiunea în război sunt învăluiți într-o ceață de incertitudine mai mare sau mai mică».
IA cu model conștient nu risipește ceața, ci locuiește în ea. Raționează, reacționează și își amintește în interiorul ei. Această capacitate este cea care transformă un avantaj informațional într-un avantaj conștient și are potențialul de a stabili standardul pentru dominația strategică în secolul XXI”, încheie John James și Alia Brahimi.
Sursa foto main – Profimedia Images
RECOMANDAREA AUTORULUI: