Trucuri pentru a identifica un deepfake. Cum poți detecta și preveni fraudele generate cu inteligența artificială
Tinerii detectează în 80% din cazuri conținutul generat de inteligența artificială, în timp ce cei peste 65 de ani răspund corect doar pe jumătate. Astfel, un ghid vine în ajutorul tuturor pentru a depista simplu deepfake, publică el Pais.
Rezultatele unui studiu arată că, în timp ce cei sub 29 de ani detectează opt din zece deepfake-uri, cei peste 65 de ani sunt capabili să identifice doar puțin mai mult de jumătate și, în multe cazuri, răspunsurile lor se bazează pe presupuneri, pur și simplu din întâmplare.
Mașinile fac legea pe Internet
Inteligența artificială (IA) este peste tot. Internetul, acea bibliotecă universală de conținut, este creată în mare parte de mașini.
„Ascensiunea conținutului automatizat și a interacțiunii bazate pe roboți face din ce în ce mai dificilă separarea autenticului de zgomot”, avertizează Aaron Harris, director tehnologic global (CTO) la Sage, o multinațională specializată în aplicații de IA. The Care Side, o organizație australiană de îngrijire la domiciliu, a creat un test (în limba engleză și accesibil prin intermediul acestui link) pentru a evalua peste 3.000 de persoane.
Pericol de manipulare
Pericolul acestei situații provine nu doar din potențialul de manipulare, dezinformare și condiționare intenționată a comportamentului, ci și din escrocheriile și fraudele comise folosind creații artificiale din ce în ce mai sofisticate.
„Fără îndoială, domeniul cel mai exploatat de infractori cu ajutorul inteligenței artificiale este frauda, deoarece aceștia creează campanii din ce în ce mai convingătoare. Nu au nicio reținere în a genera imagini și videoclipuri cu tot felul de personalități și devine din ce în ce mai dificil să se facă distincția între ceea ce este real și ceea ce este fraudulos.
Vedem videoclipuri foarte bine generate, cu voci identice cu cele ale persoanelor pe care le imitează”, a subliniat Josep Albors, director de cercetare și conștientizare la ESET Spania, în cadrul celei mai recente ediții a premiilor de comunicare ale acestei companii globale de securitate cibernetică.
Un experiment
Hervé Lambert, manager de operațiuni pentru serviciul clienți la Panda Security, a experimentat personal acest tip de fraudă. A primit un apel cu vocea unuia dintre directori care i se cerea să efectueze o acțiune suspectă.
„Am închis, l-am sunat înapoi pentru a confirma dacă el a fost cel care a sunat și nu a fost”, își amintește el.
Lambert laudă inițiativa australiană a chestionarului pe care l-a completat, ca bărbat de peste 50 de ani, împreună cu copiii săi, cu vârste cuprinse între 20 și 30 de ani. Cunoștințele sale digitale sporite și dedicarea față de test l-au determinat să obțină un scor mai mare (a făcut o singură greșeală) decât participanții mai tineri, ceea ce l-a determinat să concluzioneze că, indiferent de vârstă, riscul este universal:
„Cred că este o greșeală să limitezi problema la o problemă generațională. IA este foarte inteligentă și știe perfect că există contexte și momente ale zilei în care vom avea mult mai puțină concentrare asupra unui lucru și folosește acest lucru foarte eficient.”
Lipsa de cunoștiințe și instruire
Lambert atribuie vulnerabilitatea „lipsei de cunoștințe, conștientizare și instruire” pentru a detecta falsurile și fraudele, în special în situații din lumea reală: „
Când facem multitasking, capacitatea noastră intelectuală nu este concentrată. Evoluția amenințărilor a fost complet diferită în ultimii 10 ani și trebuie să ne asigurăm că suntem capabili să vedem semnele de avertizare din mediul nostru.” În acest sens, Albors deplânge, de asemenea, reticența utilizatorilor de a verifica conținutul pe care îl primesc sau îl accesează cu surse fiabile.
Există instrumente pentru a detecta implicarea inteligenței artificiale în orice conținut, unele concepute special pentru profesori, dar Lambert consideră că acestea sunt insuficiente:
„Acestea limitează riscul, dar nu îl vor elimina”. De aceea, insistă asupra „educării în scenarii din lumea reală pentru a ști ce să facem și când să acționăm”.
„În acest moment, cred că suntem cu toții copleșiți, iar asta îi include pe dezvoltatorii de inteligență artificială și pe cei dintre noi care lucrăm în domeniul securității cibernetice. Infractorii sunt foarte inteligenți, rapizi și pricepuți. În plus, nu au constrângeri de buget sau de timp și, bineînțeles, nu respectă regulile”, se plânge el.
Chei pentru detectarea și evitarea fraudelor bazate pe inteligență artificială
În general, există modalități de a detecta conținutul fals prin verificarea informațiilor cu surse fiabile, cum ar fi instituțiile media consacrate, așa cum subliniază Albors;
- fiind precaut în ceea ce privește conținutul extrem de emoțional sau nesolicitat;
- verificând adresele web (URL-uri);
- sau confirmând cu prietenii apropiați, familia sau direct cu sursele de la care pare să provină mesajul
Există însă și îndrumări specifice în funcție de natura mesajelor false, așa cum este detaliat în studiul The Care Side:
Text
- atunci când aveți de-a face cu mesaje scrise, fiți suspicioși față de saluturile generice, cum ar fi „dragă client”, care nu specifică numele destinatarului;
- evitați să cădeți în capcanele termenelor limită urgente, cum ar fi mesaje precum „a mai rămas doar unul” sau „cumpărați în decurs de o oră”;
- evitați să furnizați informații personale, parole sau să efectuați transferuri de bani fără a verifica cu expeditorul;
- recitiți conținutul căutând formulări incorecte sau nenaturale.
Imagine
Deși devin din ce în ce mai puțin distincte, vocile generate de inteligența artificială pot fi detectate observând dacă
- fețele au simetrii neobișnuite sau dinți și reflexii ciudate ale ochilor
- dacă mâinile sunt malformate sau neclare
- dacă umbrele și reflexiile se potrivesc cu fundalul,
- dacă pielea sau îmbrăcămintea au texturi excesiv de netede sau dacă în fundal sunt afișate elemente arhitecturale sau mobilier stradal nepotrivite.
Audio
- Mesajele vocale generate de inteligența artificială prezintă adesea pauze nenaturale sau modele de vorbire robotizate, schimbări bruște de voce, zgomot de fundal neobișnuit sau tonuri emoționale care nu se potrivesc cu conținutul.
- Vocile artificiale dintr-o conversație reacționează, de asemenea, diferit față de o voce umană (răspunsuri inexacte sau necoordonate) și nu au imperfecțiuni umane (erori de pronunție sau bâlbâieli).
Video
Creațiile audiovizuale pot fi supuse caracteristicilor celor două secțiuni anterioare și pot include observații ale gesturilor faciale neconforme cu secvența, imprecizie în mișcările buzelor și pleoapelor sau expresii și mișcări nenaturale.
Recomandarea autorului: Inteligența artificială a învățat să mintă? O femeie a avut iluzii de comunicare cu fratele ei decedat după sesiuni de chatbot nocturne