Tinerii detectează în 80% din cazuri conținutul generat de inteligența artificială, în timp ce cei peste 65 de ani răspund corect doar pe jumătate. Astfel, un ghid vine în ajutorul tuturor pentru a depista simplu deepfake, publică el Pais.
Rezultatele unui studiu arată că, în timp ce cei sub 29 de ani detectează opt din zece deepfake-uri, cei peste 65 de ani sunt capabili să identifice doar puțin mai mult de jumătate și, în multe cazuri, răspunsurile lor se bazează pe presupuneri, pur și simplu din întâmplare.
Inteligența artificială (IA) este peste tot. Internetul, acea bibliotecă universală de conținut, este creată în mare parte de mașini.
„Ascensiunea conținutului automatizat și a interacțiunii bazate pe roboți face din ce în ce mai dificilă separarea autenticului de zgomot”, avertizează Aaron Harris, director tehnologic global (CTO) la Sage, o multinațională specializată în aplicații de IA. The Care Side, o organizație australiană de îngrijire la domiciliu, a creat un test (în limba engleză și accesibil prin intermediul acestui link) pentru a evalua peste 3.000 de persoane.
Pericolul acestei situații provine nu doar din potențialul de manipulare, dezinformare și condiționare intenționată a comportamentului, ci și din escrocheriile și fraudele comise folosind creații artificiale din ce în ce mai sofisticate.
„Fără îndoială, domeniul cel mai exploatat de infractori cu ajutorul inteligenței artificiale este frauda, deoarece aceștia creează campanii din ce în ce mai convingătoare. Nu au nicio reținere în a genera imagini și videoclipuri cu tot felul de personalități și devine din ce în ce mai dificil să se facă distincția între ceea ce este real și ceea ce este fraudulos.
Vedem videoclipuri foarte bine generate, cu voci identice cu cele ale persoanelor pe care le imitează”, a subliniat Josep Albors, director de cercetare și conștientizare la ESET Spania, în cadrul celei mai recente ediții a premiilor de comunicare ale acestei companii globale de securitate cibernetică.
Hervé Lambert, manager de operațiuni pentru serviciul clienți la Panda Security, a experimentat personal acest tip de fraudă. A primit un apel cu vocea unuia dintre directori care i se cerea să efectueze o acțiune suspectă.
„Am închis, l-am sunat înapoi pentru a confirma dacă el a fost cel care a sunat și nu a fost”, își amintește el.
Lambert laudă inițiativa australiană a chestionarului pe care l-a completat, ca bărbat de peste 50 de ani, împreună cu copiii săi, cu vârste cuprinse între 20 și 30 de ani. Cunoștințele sale digitale sporite și dedicarea față de test l-au determinat să obțină un scor mai mare (a făcut o singură greșeală) decât participanții mai tineri, ceea ce l-a determinat să concluzioneze că, indiferent de vârstă, riscul este universal:
„Cred că este o greșeală să limitezi problema la o problemă generațională. IA este foarte inteligentă și știe perfect că există contexte și momente ale zilei în care vom avea mult mai puțină concentrare asupra unui lucru și folosește acest lucru foarte eficient.”
Lambert atribuie vulnerabilitatea „lipsei de cunoștințe, conștientizare și instruire” pentru a detecta falsurile și fraudele, în special în situații din lumea reală: „
Când facem multitasking, capacitatea noastră intelectuală nu este concentrată. Evoluția amenințărilor a fost complet diferită în ultimii 10 ani și trebuie să ne asigurăm că suntem capabili să vedem semnele de avertizare din mediul nostru.” În acest sens, Albors deplânge, de asemenea, reticența utilizatorilor de a verifica conținutul pe care îl primesc sau îl accesează cu surse fiabile.
Există instrumente pentru a detecta implicarea inteligenței artificiale în orice conținut, unele concepute special pentru profesori, dar Lambert consideră că acestea sunt insuficiente:
„Acestea limitează riscul, dar nu îl vor elimina”. De aceea, insistă asupra „educării în scenarii din lumea reală pentru a ști ce să facem și când să acționăm”.
„În acest moment, cred că suntem cu toții copleșiți, iar asta îi include pe dezvoltatorii de inteligență artificială și pe cei dintre noi care lucrăm în domeniul securității cibernetice. Infractorii sunt foarte inteligenți, rapizi și pricepuți. În plus, nu au constrângeri de buget sau de timp și, bineînțeles, nu respectă regulile”, se plânge el.
În general, există modalități de a detecta conținutul fals prin verificarea informațiilor cu surse fiabile, cum ar fi instituțiile media consacrate, așa cum subliniază Albors;
Text
Imagine
Deși devin din ce în ce mai puțin distincte, vocile generate de inteligența artificială pot fi detectate observând dacă
Audio
Video
Creațiile audiovizuale pot fi supuse caracteristicilor celor două secțiuni anterioare și pot include observații ale gesturilor faciale neconforme cu secvența, imprecizie în mișcările buzelor și pleoapelor sau expresii și mișcări nenaturale.
Recomandarea autorului: Inteligența artificială a învățat să mintă? O femeie a avut iluzii de comunicare cu fratele ei decedat după sesiuni de chatbot nocturne