Experții MAI au identificat o nouă metodă de fraudă: folosirea AI pentru clonarea vocii persoanelor apropiate
Ministerul Afacerilor Interne a lansat un avertisment extrem de important pentru români. Experții MAI au identificat o nouă metodă de fraudă: folosirea inteligenței artificiale pentru clonarea vocii persoanelor apropiate. În cazul oricărei suspiciuni, închideți imediat convorbirea!
Infractorii obțin câteva secunde de înregistrare audio de pe rețelele sociale și creează apeluri telefonice în care pretind că au avut un accident sau o urgență gravă, cerând urgent bani. Mesajele sunt extrem de convingătoare, deoarece vocea pare a fi a unei rude sau prieteni apropiați.
„NU ESTE REAL. ESTE O VOCE FALSĂ. Și totuși… sună exact ca el/ea. „Am avut un accident…” „Ajută-mă, te rog! Am nevoie de bani. ACUM!” STOP. Respiră. Infractorii folosesc inteligența artificială pentru a clona vocea celor dragi, folosind doar câteva secunde de audio de pe rețelele sociale”, au scris reprezentanții MAI pe Facebook.
Ministerul explică că scenariul clasic este menit să provoace panică și grabă, pentru a forța victimele să ia decizii pripite: „Ajută-mă, te rog! Am nevoie de bani. ACUM!”
„Scenariul e mereu unul de panică: accident ori altă urgență „care nu suportă amânare”. Ce vor? Bani. Rapid. Fără să te lase să gândești.
CE FACI DACĂ PRIMEȘTI UN APEL DE ACEST TIP?
– Închizi IMEDIAT
– Suni persoana care îți cere ajutorul (de multe ori, cineva foarte drag) pe numărul cunoscut
– NU trimiți bani
– NU oferi date personale sau bancare”, se mai arată în postare.
Autoritățile îndeamnă la calm și atenție și recomandă distribuirea acestui mesaj pentru a preveni victimele: „Poate salva liniștea unei familii!”, postează MAI.
Recomandarea autorului: „Frauda secolului“: O româncă i-a trimis 2,5 milioane de dolari „prințului din Dubai“. Cum a fost convinsă femeia să se întâlnească la Londra cu un consilier „regal“