Cum să te aperi de pericolul Deepfake: Câți bani au pierdut o pensionară din Vaslui ori un director din Marea Britanie – Ghid DNSC
Atacatorii pot imita perfect vocea unei persoane dragi pentru a vă păcăli și a vă fura banii prin intermediul tehnologiei Deepfake, atenționează luni Directoratul Național de Securitate Cibernetică (DNSC), care a lansat un ghid despre cum să identifici și să te aperi de acest fenomen. În acest an, o pensionară din Vaslui a pierdut 52.000 de lei, iar în 2019, un Deepfake audio a fost folosit pentru a înșela directorul general al unei companii din Marea Britanie cu 220.000 de euro.
Pericolul Deepfake: Tehnologia poate fi folosită în fraude sau manipularea opiniei publice
Tehnologia Deepfake utilizează tehnici avansate de Inteligență Artificială pentru a crea conținut de tip imagini sau audio-video falsificat, care poate fi folosit în tentative de fraudă, cum ar fi falsificarea identității în apeluri telefonice sau video pentru a obține acces neautorizat la informații sau resurse financiare.
- „Un exemplu: Există multiple cazuri în care un videoclip cu o personalitate publică oferă sfaturi financiare. În acest videoclip, persoana recomandă insistent investiția într-o anumită companie sau afacere, promițând profituri mari și riscuri minime.
- Detaliile contează: Videoclipul este realizat profesional, cu o calitate a imaginii și sunetului ridicată. Persoana publică pare sinceră și convingătoare, folosind un limbaj accesibil și argumente persuasive.
- Scopul campaniei: Un astfel de Deepfake ar putea fi folosit pentru a manipula populația să investească într-o afacere ilicită (scam1), deținută sau controlată de manipulatori. Impact: Videoclipul este distribuit rapid pe rețelele de socializare, cu un potențial uriaș de a fi vizionat de milioane de oameni. Mulți dintre cei care văd videoclipul ar putea fi convinși să investească în afacerea recomandată, riscând ulterior să piardă sume semnificative de bani”, atenționează DNSC.
Tehnologia Deepfake poate fi folosită pentru a crea înregistrări false care implică persoane în activități pe care nu le-au realizat sau pentru a produce dovezi false în contexte juridice.
De asemenea, poate fi utilizată în tentative de fraudă, cum ar fi falsificarea identității în apeluri telefonice sau video pentru a obține acces neautorizat la informații sau resurse financiare.
În politică și în alte domenii, Deepfake-urile pot fi folosite pentru a manipula opinia publică, a discredita adversarii sau a crea confuzie. Acestea pot influența alegerile, relațiile internaționale și pot alimenta teorii ale conspirației.
Exemple reale de utilizare a Deepfake: Conținut fals cu Isărescu și oameni care au pierdut bani
DNSC amintește că Banca Națională a României (BNR) a avertizat publicul recent cu privire la o schemă de înșelăciune care implică utilizarea tehnologiei Deepfake pentru a crea videoclipuri false cu guvernatorul BNR.
În aceste videocli-puri, guvernatorul pare să promoveze o platformă de investiții, însă BNR a declarat că acestea sunt false. Scamul folosește IA pentru a modifica vocea și imaginea guvernatorului, cu scopul de a induce în eroare publicul pentru a participa la investiții frauduloase, promițând câștiguri financiare rapide și ușoare.
Un alt caz este cel al unei femei pensionare din Vaslui, care a fost victima unei escrocherii postată online pe platforma YouTube. Escrocii au creat un videoclip fals în care un cunoscut bancher și alte personalități cunoscute recomandau o platformă de investiții.
Promisiunea unor profituri rapide a convins pensionara să investească suma de 52.000 de lei, economii strânse în 20 de ani de muncă. Chiar dacă femeia a raportat această fraudă autorităților, experții consideră că șansele de recuperare a fondurilor pierdute sunt minime.
„Actorii rău intenționați devin tot mai inventivi. Acum pot imita perfect vocea unei persoane dragi pentru a vă păcăli. Te pot suna pretinzând că sunt un membru al familiei care are nevoie urgentă de bani. Recomandăm ca întotdeauna să fie verificată identitatea apelantului, chiar dacă pare să fie o rudă sau un prieten cunoscut. Nu trimite niciodată bani în grabă și anunță imediat autoritățile dacă ai suspiciuni. Doar prin vigilență și informare te poți proteja de această formă de fraudă”, avertizează DNSC.
În 2019, un Deepfake audio a fost folosit pentru a înșela un CEO cu 220.000 de euro.
- „Directorul general al unei firme de energie cu sediul în Marea Britanie a crezut că vorbea la telefon cu directorul general al companiei-mamă germane atunci când a urmat ordinele de a transfera imediat 220.000 de euro în contul bancar al unui furnizor maghiar. De fapt, vocea aparținea unui escroc care folosea tehnologia vocală IA pentru a-l imita pe directorul executiv german”, spune DNSC.
Pericolul Deepfake în contextul electoral
Tehnologiile Deepfake, capabile a sintetiza realist imagini și voci , pot influența semnificativ opinia și votul alegătorilor în timpul campaniilor electorale.
- „Reputația unui politician poate fi grav afectată de videoclipuri Deepfake fabricate, care pot discredita imaginea sa și pot deteriora șansele de a câștiga alegerile. Răspândirea dezinformării prin Deepfake poate manipula percepția publică asupra caracterului și programului politicianului, afectând negativ cariera sa politică.
- Deepfake poate fi utilizat ca instrument strategic pentru a discredita partidele rivale, prin crearea de materiale false care să le prezinte într-o postură negativă”,se arată în ghidul DNSC.