Alphabet, compania care deține Google, a renunțat la un principiu care data din 2018 și a ridicat interdicția de a utiliza inteligența artificială pentru dezvoltarea de arme și instrumente de supraveghere.
Alphabet și-a rescris regulile privind modul în care va utiliza inteligența artificială, renunțând la o secțiune care anterior excludea aplicațiile care erau „susceptibile de a provoca daune”, conform Washington Post.
Principiile companiei privind inteligența artificială includeau anterior o secțiune în care erau enumerate patru „aplicații pe care nu le vom urmări”.
Până acum, printre acestea se numărau armele, supravegherea, tehnologiile care „cauzează sau sunt susceptibile de a cauza daune generale” și cazurile de utilizare care contravin principiilor dreptului internațional și drepturilor omului.
Într-o postare pe blogul companiei, Google a apărat schimbarea, susținând că întreprinderile și Guvernele democratice trebuie să colaboreze pentru o inteligență artificială care „sprijină securitatea națională”.
Google a declarat că democrațiile ar trebui să deschidă calea în dezvoltarea IA, ghidate de ceea ce compania a numit „valori fundamentale” precum libertatea, egalitatea și respectul pentru drepturile omului.
„Credem că companiile, Guvernele și organizațiile care împărtășesc aceste valori ar trebui să lucreze împreună pentru a crea inteligență artificială care protejează oamenii, promovează creșterea globală și sprijină securitatea națională”, a adăugat Google.
Postarea de blog – scris de vicepreședintele senior James Manyika și Demis Hassabis, care conduce laboratorul de inteligență artificială Google DeepMind – susține că principiile inițiale ale companiei privind inteligența artificială publicate în 2018 trebuiau actualizate pe măsură ce tehnologia a evoluat.
Postarea de blog a fost publicată chiar înainte de publicarea raportului financiar de sfârșit de an al Alphabet, care a indicat rezultate mai slabe decât așteptările pieței și a redus prețul acțiunilor.
Acest lucru s-a întâmplat în ciuda unei creșteri cu 10% a veniturilor din publicitatea digitală, cea mai mare sursă de a Google, stimulat de cheltuielile electorale din SUA.
În raportul său privind rezultatele, compania a declarat că va cheltui 75 de miliarde de dolari pe proiecte de inteligență artificială în acest an, cu 29% mai mult decât se așteptau analiștii de pe Wall Street.
Compania investește în infrastructura de funcționare a AI, în cercetarea AI și în aplicații precum căutarea bazată pe AI.
Restricțiile privind utilizarea inteligenței artificiale în scopuri de securitate națională transformaseră Google într-o excepție în rândul principalilor dezvoltatori de inteligență artificială.
Rivalii Google din domeniul tehnologiei, Microsoft și Amazon, aveau de mult timp parteneriate cu Pentagonul. La sfârșitul anului trecut, producătorul ChatGPT OpenAI a declarat că va colabora cu producătorul militar Anduril pentru a dezvolta tehnologie pentru Pentagon.
Anthropic, care oferă chatbotul Claude, a anunțat un parteneriat cu antreprenorul din domeniul apărării Palantir pentru a ajuta agențiile americane de informații și apărare să acceseze versiuni ale lui Claude prin intermediul Amazon Web Services.
Inițial, cu mult înainte de creșterea actuală a interesului pentru etica IA, fondatorii Google, Sergei Brin și Larry Page, declaraseră că motto-ul lor pentru firmă era „Nu face rău”. În 2015, când compania a fost restructurată sub numele Alphabet, compania mamă a trecut la „Fă lucrul care trebuie”.
De atunci, au existat cazuri când angajații Google au ripostat la abordarea adoptată de directorii lor.
Google a publicat pentru prima dată principiile sale privind inteligența artificială în 2018, după ce angajații au protestat față de „Project Maven”, un contract cu Pentagonul. În urma demisiilor și a unei petiții semnate de mii de angajați, firma nu a reînnoit contractul cu Pentagonul din domeniul inteligenței artificiale.
Algoritmii de viziune artificială ai Google urmau să fie folosiți pentru a analiza imagini filmate de drone.
Mii de angajați au semnat o scrisoare deschisă adresată CEO-ului Google, în care se menționa: „Credem că Google nu ar trebui să se ocupe de război”.
Angajații se temeau că „Project Maven” era primul pas către utilizarea inteligenței artificiale în scopuri letale.
:format(webp):quality(80)/https%3A%2F%2Fwww.gandul.ro%2Fwp-content%2Fuploads%2F2025%2F02%2Fprofimedia-0872984225.jpg)
Unii angajați Google au protestat, de asemenea, împotriva unui contract de cloud computing pe care compania îl are în derulare cu Guvernul Israelului, susținând că tehnologia AI a Google ar putea contribui la politici care dăunează palestinienilor.
Documente interne arată că Google a oferit Ministerului Apărării al Israelului și Forțelor de Apărare ale Israelului un acces mai mare la instrumentele sale AI după ce Hamas a atacat Israelul pe 7 octombrie 2023.
Foto: Profimedia
CITIȚI ȘI:
Raport NewsGuard: DeepSeek, “o mașinărie de DEZINFORMARE” care răspândește propaganda Chinei