Reklama

Ako odhaliť deepfake podvod? Veriť sa už nedá ani hovorom od blízkych

Zdroj | Microsoft
Stanislav Vinc
Zdroj | Microsoft
Zdroj | Microsoft

Je zrejme iba otázkou času, než aj vám zazvoní telefón s naliehaním vašej blízkej osoby, bankára alebo šéfa prostredníctvom videohovoru, aby ste mu prezradili dôvernú informáciu alebo priamo poslali nejakú finančnú čiastku. Reálna osoba, ktorú však na obrazovke uvidíte, o ničom z toho nebude mať ani potuchy.

Podvody s deepfake videami nie sú žiadnym sci-fi a prvé prípady sa dokonca objavujú už aj na Slovensku. Aktuálne cielia na väčšie firmy, no časom sa s nimi stretne každý.

Doposiaľ najznámejší prípad pokusu o podvod prostredníctvom deepfake videohovoru na Slovensku zaznamenala košická firma zaoberajúca predajom športových a výživových doplnkov. Jeden z jej zamestnancov začiatkom augusta dostal pozvánku na videohovor so svojim nadriadeným, ktorý ho za asistencie údajného právnika žiadal o informácie o ich firemných bankových účtoch.

Obsah pokračuje pod reklamou

Spoločnosť z pokusu o podvod vyviazla iba náhodou a to aj vďaka chybe podvodníka. Ten v mene Dalibora Cicmana, zakladateľa a generálneho riaditeľa spoločnosti GymBeam, ktorého útočník prostredníctvom technológie deepfake napodobňoval, uviedol, že posledné dva týždne strávil mimo kancelárie. Zamestnanec pozvaný do videohovoru sa však s Daliborom ešte v ten deň stretol v kancelárii a počas videohovoru mu dokonca prostredníctvom firemného četu potvrdil, že sa žiadneho videhovoru v tej chvíli nezúčastňuje.

Deepfake videá nie sú žiadnou novinkou, no z roka na rok sú vierohodnejšie a čoraz dostupnejšie. Ešte v roku 2017 boli deepfake videá primárne výtvormi vedcov a výskumníkov, pričom na vytvorenie takýchto videí boli potrebné celé mesiace príprav a výkonný hardvér. Dnes už naopak možno deepfake videá tvoriť aj v reálnom čase, vďaka čomu ich útočníci začali využívať už aj naživo priamo pri videohovoroch.

Útočníci, podobne ako v prípade doterajších podvodov prostredníctvom telefonátov, e-mailov a SMS správ, apelujú na ľudskú psychiku. Potenciálnu obeť sa snažia vystresovať, zmiasť alebo dostať do úzkych tak, aby stratila ostražitosť. Práve v takejto chvíli, kedy vás zdanlivo dôveryhodná osoba na druhej strane linky tlačí do rýchleho rozhodnutia, prestanete vnímať nedokonalosti takéhoto podvodu, ktoré by vám mohli pomôcť odhaliť ho.

Prvou zásadou, ako deepfake podvod možno odhaliť, je práve zachovanie pokoja. Nič nie je tak naliehavé, aby ste sa nemohli niekoľkokrát zhlboka nadýchnuť a popremýšľať, či na aktuálnej situácii nie je niečo zvláštne. Nevolá vám osoba na druhej strane z miesta, na ktorom by sa nemala reálne nachádzať? Sedí intonácia, výber slov alebo skladba viet volajúcej osoby s tou, ktorú poznáte v reálnom živote? Nie je zvláštny kontext, okolnosti alebo to, čo od vás volajúca osoba vlastne žiada?

Ak si ani po vnútornom položení si týchto otázok stále nie ste istí, nie je žiadna hanba jednoducho zložiť a danej osobe zavolať späť prostredníctvom kanálu, cez ktorý s ňou bežne komunikujete. Ak vám daná osoba volá prostredníctvom četovacej aplikácie, zavolajte jej späť na bežné telefónne číslo. Možnosťou je tiež súbežne napísať danej osobe správu, ako sa podvod podarilo odhaliť v prípade popísanom vyššie.

Kvalita deepfake videí a videohovorov postupne stúpa, no ešte chvíľu bude možné takéto pokusy možné odhaliť aj pozorným sledovaním nedokonalostí, ktoré dnešné deepfake videá tvorené v reálnom čase ešte obsahujú. Najlepším vodítkom je sledovanie, či pohyb a mimika falošnej tváre pôsobí prirodzene. Podozrivé je, pokiaľ sa volajúca osoba po celý čas pozerá priamo dopredu. Pri otočení hlavy by sa totiž celá ilúzia mohla rozpadnúť, ako to ukazuje Martin Anderson zo spoločnosti Metaphysic vo videu nižšie.

Práve spoločnosť Metaphysic však súbežne stojí aj za virálnymi videami s falošným Tomom Cruisom, ktorého od toho reálneho možno rozoznať primárne podľa mladistvého vzhľadu. Takéto videá dokáže generovať už aj v reálnom čase, avšak technológie, ktoré na to využíva, nie sú zatiaľ bežným používateľom bežne prístupné. To sa však môže v priebehu krátkej doby veľmi ľahko zmeniť.

Spočiatku budú útočníci pri vytváraní deepfake videí a videohovorov zneužívať najmä tváre známejších osobností, pre ktoré na internete existuje dostatočné množstvo fotografií a videozáznamov z rôznych uhlov a v rôznych svetelných podmienkach. Časom bude zrejme možné vytvárať realistické deepfake videá aj na základe hŕstky fotiek, ktoré možno zdieľate na internet aj vy sami prostredníctvom sociálnych sietí.

Pozrite si

AI vás o prácu nepripraví, ale ľudia ovládajúci AI možno áno

Niekedy na úspešné vykonanie deepfake podvodu napokon nie je potrebné ani video. Útočníci vo svete už začínajú na oklamanie svojich obetí využívať už aj neurálne generované hlasy, ktoré využívajú vo falošných volaniach. Na natrénovanie umelej inteligencie, aby znela ako konkrétna osoba, stačí mať k dispozícii krátke nahrávky, v ktorých odznejú určité kľúčové slová alebo slabiky. Útočník môže od napodobňovanej osoby takéto nahrávky získať aj zdanlivo celkom nevinným hovorom, ktorý sa môže tváriť ako verejný prieskum, marketingová ponuka alebo omyl, ktorý však omylom vôbec nie je.

Základom pre odhalenie každého podvodu je tak rozvaha a zachovanie chladnej hlavy. Žiaden e-mail, SMS správa alebo (video)hovor nie je tak súrny, aby naň bolo potrebné reagovať a konať podľa neho okamžite. Dôležité je však taktiež držať krok s útočníkmi a poznať ich najnovšie metódy. Ak budete vedieť, čo všetko je prostredníctvom súčasných technológií možné a čo nie, tak vás žiaden pokus o podvod len tak ľahko neprekvapí.

Ďalšia story
Zatvoriť

Newsletter

Ďakujeme za váš záujem! Odteraz vám už neunikne žiadna novinka.
Ľutujeme, ale váš formulár sa nepodarilo odoslať.