Avertisment la vârful UE: Risc de manipulare prin predicții bazate pe reacții psihologice iraționale. Inteligența artificială amenință drepturile omului? (ANALIZĂ GÂNDUL)

Publicat: 15 12. 2020, 10:06
Sursă FOTO: Shutterstock - caracter ilustrativ

Inteligența artificială (AI) este utilizată deja în decizii-cheie ale autorităților din statele membre UE, cu impact asupra  vieții a milioane de europeni. Automatizarea poate îmbunătăți procesul decizional dar, în același timp, poate duce la greșeli, discriminare și încălcări ale drepturilor omului, avertizează Agenția UE pentru Drepturi Fundamentale (FRA) în cel mai recent raport dat publicității.

Inteligența artificială (AI) joacă deja un rol-cheie în viața fiecărui cetățean european: sunt softuri specializate care determină ce ajutoare primește cineva pentru șomaj, unde este posibil să aibă loc o spargere, dacă cineva este expus riscului de cancer sau cine vede acea reclamă atrăgătoare pentru rate ipotecare scăzute. Utilizarea AI continuă să crească, atât în mediul public cât și în cel privat, ne influențează la fiecare pas viața cotidiană și oferă posibilități aparent nelimitate. Însă există semnale de alarmă din partea agențiilor europene care se ocupă cu drepturile omului: AI nu are acel discernământ al inteligenței umane.

Printre „capcanele” utilizării AI de către forţele de ordine, sectorul medical, sectorul privat şi agenţiile de informaţii, FRA menționează posibile erori în predicțiile privind comportamentul infracțional, în diagnosticarea medicală sau în decizii privind serviciile de asistență sociale.

FRA solicită factorilor de decizie să ofere mai multe îndrumări cu privire la modul în care regulile existente se aplică AI și să se asigure că orice viitoare legi AI protejează drepturile fundamentale.

Asigurați-vă că AI respectă TOATE drepturile fundamentale, nu doar confidențialitatea sau protecția datelor, pentru că poate duce la discriminări sau la erori în actul de justiție. Orice legislație viitoare privind AI trebuie să ia în considerare acest lucru și să creeze garanții eficiente – Raportul FRA

Experții în AI ai agenției mai explică, în raport, că o mare parte a interesului pentru AI se concentrează pe sprijinul său potenţial pentru creşterea economică, în timp ce modul în care poate afecta drepturile fundamentale a primit mai puţină atenţie.

Recomandarea FRA către decidenții din statele UE: Garantați că oamenii pot contesta deciziile luate de AI

”Inteligența artificială nu este infailibilă, pentru că este creată de oameni, și oamenii pot face greșeli. De aceea este important ca oamenii să știe cum funcționează și cum să conteste deciziile automatizate”, consideră directorul FRA, Michael O’Flaherty.

UE trebuie să clarifice modul în care normele existente se aplică IA, iar organizațiile trebuie să evalueze modul în care tehnologiile lor pot interfera cu drepturile oamenilor atât în ​​dezvoltarea, cât și în utilizarea AI. Experții agenției europene cer decidenților să facă periodic evaluări „umane” ale deciziilor luate cu ajutorul softurilor dedicate – înainte și în timpul utilizării – pentru a reduce impactul negativ.

Potrivit datelor Agenției, 42% dintre companiile din Uniunea Europeană folosesc tehnologii care sunt dependente de Inteligența Artificială. Printre cele mai folosite aplicații IT se numără cele legate de optimizarea echipamentelor, detecția unor anormalități în fluxul de producție, automatizarea proceselor, predicții diverse – de la comportamentul consumatorilor la evoluția unor factori determinanți pentru mediul de business, optimizarea prețurilor și așa mai departe.

 

Organizațiile private și publice ar trebui să evalueze periodic modului în care IA ar putea încălca drepturile fundamentale

Raportorul special al Națiunilor Unite (ONU) pentru sărăcie extremă și drepturile omului, Philip Alston, a avertizat în raportul său din octombrie 2019 că introducerea unei evaluări digitale a bunăstării, inclusiv utilizarea IA, poate duce la o „distopie digitală a bunăstării”.
Digitalizarea sistemelor de asistență socială este adesea însoțită de reduceri ale bugetelor generale alocate asistenței sociale, restrângerea fondurilor pentru beneficiari și alte măsuri care pot reduce accesul la asistență.

“Unul dintre riscuri este acela ca oamenii să adopte orbeşte noile tehnologii, fără a evalua impactul înainte de a le utiliza”, a explicat David Reichel, unul dintre autorii raportului. De asemenea, AI poate viola viaţa privată, prin dezvăluirea preferinţelor sexuale ale unei persoane într-o bază de date. Ea poate de asemenea crea discriminări la angajare dacă anumite criterii exclud categoriile de populaţie pe baza numelui de familie sau a adresei.

ONU: Digitalizarea crește puterea statelor oferind oportunități de control al cetățenilor

Utilizarea AI devine îngrijorătoare  în special în țările cu deficit semnificativ al statului de drept, notează ONU. Riscul există și în țările europene care au un stat de drept puternic. Astfel, FRA dă ca exemplu sistemul folosit în Olanda – așa-numitul „Sistem de identificare a riscului” (SyRI), care a fost dezvoltat ca instrument guvernamental pentru a avertiza administrația publică olandeză asupra riscului ca anumiți cetățeni să încalce legile. Sistemul este bazat pe un soft care  prelucrarează și conectează date personale ale cetățenilor din sistemele informatice ale administrației publice. O coaliție largă a societății civile, organizații care se ocupă de probleme de drept la confidențialitate, a inițiat un proces, determinând Judecătoria districtului de la Haga să analizeze algoritmii și datele procesate de SyRI. Instanța a decis că SyRI interferează disproporționat în  viata privată a cetatenilor.

Tehnologiile de recunoaștere facială, utilizate de autorități „la limita” încălcării dreptului la viață privată

Utilizarea în creșterea a tehnologiilor de recunoaștere facială a stârnit îngrijorarea organizațiilor pentru drepturile omului. Astfel, legislația UE recunoaște drept „date sensibile” imaginile oamenilor, care sunt stocate și procesate sub formă de date biometrice de către softurile de recunoaștere facială. Imaginile sunt, de asemenea, destul de ușor de captat în locuri publice. Deși acuratețea de recunoaștere a softurilor se îmbunătățește, riscul de
eroare rămâne real – în special pentru anumite grupuri minoritare, se arată în raportul FRA.

Oamenii ale căror imagini sunt capturate și procesate s-ar putea să nu știe că se întâmplă asta – și așa nu pot preveni posibile abuzuri. Raportul FRA conturează și analizează toate aceste provocări în ce privește drepturile fundamentale declanșate atunci când autoritățile publice implementează sisteme de urmărire și identificare live în scopul aplicării legii sau pentru a evita încălcarea legii, se arată în analiza experților europeni pentru drepturile omului.

Manipularea consumatorilor prin predicții privind decizii iraționale bazate pe factori psihologici

Internetul a transformat radical modul în care trăim.  Companiile care oferă serviciile lor gratuit generează în principal venituri prin publicitate, cu reclame direcționate automat către consumatori individuali pe baza informațiilor colectate din activitatea online despre comportamentul lor de consum. Disponibilitatea datelor despre comportamentul individual online combinat cu tehnologiile de învățare automată ale AI au îmbunătățit considerabil  capacitatea companiilor de a targeta clienții. Acest lucru ar putea merge chiar până la manipularea consumatorilor prin predicții obținute cu ajutorul algoritmilor privind reacțiile lor iraționale de consum, bazate pe factori psihologici”, spun experții UE.

Scandalul Cambridge Analytica a subliniat impactul deosebit de negativ al utilizării algoritmilor în scopuri politice. În acest caz, o companie care a obținut ilegal date personale de la milioane de utilizatori de rețele sociale a putut targeta  anunțurile politice pe diferite grupuri sociale, concepute special pentru anumite profiluri psihologice.

Recomandările FRA cu privire la utilizarea AI cu respectarea drepturilor fundamentale

Principalele recomandări ale FRA,  în urma analizei riscurilor folosirii excesive a inteligenței artificiale:

  • Asigurați-vă că AI respectă TOATE drepturile fundamentale
  • Garantați că oamenii pot contesta deciziile luate de AI
  • Evaluați AI înainte și în timpul utilizării sale pentru a reduce impactul negativ
  • Oferiți mai multe informări publice cu privire la normele de protecție a datelor
  • Evaluați dacă AI discriminează
  • Creați un sistem eficient de supraveghere a companiilor și instituțiilor care folosesc AI

Raportul face parte din proiectul FRA privind AI și big data. Se bazează pe peste 100 de interviuri cu organizații publice și private care utilizează deja AI. Acestea includ observații ale experților implicați în monitorizarea potențialelor încălcări ale drepturilor fundamentale. Analiza sa se bazează pe utilizări reale ale AI din Estonia, Finlanda, Franța, Olanda și Spania.

Raportul FRA vine într-un moment în care Comisia Europeană, Executivul comunitar, are în vedere elaborarea unei legislaţii care să acopere sectoarele cu un risc ridicat precum sănătatea, energia, transporturile şi unele părţi din sectorul public.