Administrația Statelor Unite a catalogat marți compania de inteligență artificială Anthropic drept un „risc inacceptabil” pentru securitatea națională deoarece aceasta și-ar putea dezactiva sau modifica tehnologia pentru a se potrivi propriilor interese, mai degrabă decât intereselor țării, scrie New York Times.
Într-un document de 40 de pagini depus marți la un Tribunal districtual din California, avocații guvernului au declarat că se îndoiesc că Anthropic este un partener de încredere pentru Washington, mai ales având în vedere că sistemele de inteligență artificială „sunt extrem de vulnerabile la manipulare”.
Acordarea accesului Anthropic la infrastructura de luptă a Departamentului de Război al SUA ar „introduce un risc inacceptabil în lanțurile de aprovizionare ale departamentului”, a declarat guvernul american. Dario Amodei, directorul executiv al companiei Anthropic, a vorbit anterior despre modul în care armata, nu compania sa, decide cum sunt utilizate tehnologiile companiei.
„Nu am ridicat niciodată obiecții față de anumite operațiuni militare și nici nu am încercat să limităm utilizarea tehnologiei noastre într-un mod ad-hoc”, a declarat Amodei pe 26 februarie.
Pe 9 martie, Anthropic a intentat două procese pentru a contesta decizia lui Pete Hegseth din februarie de a eticheta compania de inteligență artificială drept un „risc pentru lanțul de aprovizionare” al Pentagonului. Hegseth a acționat după ce Pentagonul s-a luptat cu compania pentru un contract de 200 de milioane de dolari pentru utilizarea inteligenței artificiale în sisteme clasificate. În timpul negocierilor pentru contract, Anthropic a declarat că nu dorește ca inteligența sa artificială să fie utilizată pentru supravegherea în masă a americanilor sau cu arme letale autonome. Când cele două părți nu au putut ajunge la un acord, Hegseth a declarat că Anthropic prezintă un risc pentru lanțul de aprovizionare al SUA.
Microsoft a depus un memoriu de tip „amicus curiae” în care a cerut unei instanțe federale să blocheze temporar desemnarea de către Pentagon a Anthropic drept risc pentru lanțul de aprovizionare. Treizeci și șapte de ingineri și cercetători de la OpenAI și Google, inclusiv Jeff Dean, directorul științific al Google, au depus, de asemenea, un memoriu în sprijinul Anthropic.
Anthropic s-a asociat cu Palantir Technologies și Amazon Web Services (AWS) pentru a furniza modelele Claude 3 și 3.5.celor 5 agenții de informații și apărare din Statele Unite. Astfel, Claude a devenit primul model A.I. operat direct pe rețelele militare clasificate ale Pentagonului, fiind utilizat pentru procesarea datelor complexe și suport în decizii.
Anthropic a început să furnizeze tehnologia sa de inteligență artificială anul trecut, în cadrul unui program pilot stabilit de Pentagon. Doi oficiali din domeniul apărării au declarat că armata a continuat să utilizeze Anthropic pentru a analiza informațiile, în timp ce războiul din Iran intra în a treia săptămână.
Anterior, Pentagonul a folosit modelul Claude în operațiunea militară din Venezuela de la începutul lunii ianuarie, care a dus la capturarea lui Nicolas Maduro. Claude a fost integrat atunci cu platformele firmei de analiză Palantir Technologies, fiind utilizat pentru a procesa și sintetiza fluxuri masive de date interceptate și informații din satelit în timpul raidului.
Recomandările autorului: