Počet deepfake útoků v Evropě významně vzrostl

sobota, 6. ledna 2024, 07:45 Internet & Mobil, Výzkum, Aktuality MediaGuru

Počet kybernetických útoků prostřednictvím tzv. deepfakes se v loňském roce ve světě zvýšil na desetinásobek. 

Zdroj: Manuál Deepfake 2024: Obranná strategie pro české firmy

Zdroj: Manuál Deepfake 2024: Obranná strategie pro české firmy

V loňském roce počet kybernetických útoků prostřednictvím tzv. deepfakes, tedy falešných videí, podvržených fotek nebo audio nahrávek, vzrostl ve světě meziročně na desetinásobek. Jen v Evropě byl zaznamenán nárůst těchto útoků o 780 procent. Uvádí to ve svém manuálu Deepfake 2024: Obranná strategie pro české firmy Česká asociace umělé inteligence. I letos bude tato hrozba patřit k nejpalčivějším problémům v kontextu bezpečnostní politiky firem. 

Tvorba deepfakes začíná být otázkou několika minut

Důvodem vysokého nárůstu deepfake útoků je především pokrok ve využití nástrojů umělé inteligence, které tvorbu falešných multimediálních materiálů umožňují. Největší hrozby zneužití zahrnují techniky, které ohrožují značku, napodobují vedoucí pracovníky a používají podvodnou komunikaci k získání přístupu k sítím, komunikaci a citlivým informacím organizace. Zatímco dříve zabralo vytvoření sofistikovaného falza pomocí specializovaného softwaru profesionálovi i několik týdnů, dnes lze kvalitní deepfake vytvořit na chytrém telefonu za zlomek času, a to i s omezenými nebo žádnými technickými znalostmi.

Na trhu je mnoho volně dostupných nástrojů, které činí tvorbu deepfakes otázkou několika minut. Patří mezi ně například aplikace HeyGen, jejíž snadné ovládání ukázal Dan Gottwald, produktový manager AI ve Vltava Labe Media a člen České asociace umělé inteligence. „AI deepfake je pro mě poměrně zajímavé téma, i z toho důvodu, že jsem byl v Česku možná jedním z prvních lidí, kterým se podařilo úspěšně vytvořit a následně i zveřejnit vlastního AI avatara. Video jsem vytvořil během hodiny jen s minimálním vybavením a v podmínkách, které mají opravdu daleko k profesionálnímu studiu. Výsledkem byla moje velmi realistická video kopie. Ta může mluvit například čínsky, nebo jakýmkoliv jiným jazykem,“ přibližuje Gottwald vytváření deepfake videa.

„Momentálně také testuji klonování hlasu, které je téměř nerozeznatelné od originálu. Stačí mít dvě minuty nahrávky nějakého staženého hlasu a během pár vteřin uděláte kopii. Asi si dovedete představit, jak (s trochou sociálního inženýrství) dokonalá je to zbraň pro různé podvodníky a vyděrače,“ dodává Gottwald.

Podle všeho se bude dostupnost a kvalita deepfake nástrojů do budoucna ještě zvyšovat. Velikost trhu s deepfake softwarem byla v roce 2023 oceněna na částku 72,41 milionů amerických dolarů a očekává se, že do roku 2028 dosáhne velikosti 348,9 milionů dolarů.

Deepfakes jsou mnohdy jen těžce rozpoznatelné 

Ze skutečných případů deepfakes lze zmínit například snímek zobrazující výbuch poblíž Pentagonu, který byl sdílen loni v květnu a způsobil obecné zmatky a turbulence na akciovém trhu. Na Slovensku se během parlamentních voleb po řetězových e-mail šířilo deepfake audio, na kterém měl lídr strany Progresívne Slovensko Michal Šimečka diskutovat o plánech zmanipulovat volby. Britský občanský žurnalista Eliot Higgins vytvořil pomocí Midjourney obrázky Donalda Trumpa, jak se násilně brání zatčení, utíká před newyorskou policií  a je ve vězení v oranžové kombinéze. 

Podle průzkumu společnosti iProov 43 % globálních respondentů připouští, že by nebyli schopni rozeznat rozdíl mezi skutečným a deepfake videem. V rámci výzkumu University College London, který trénoval algoritmus k převodu textu na řeč a vygeneroval 50 vzorků deepfake řeči v angličtině a mandarínštině, poznali účastníci falešnou řeč pouze v 73 % případů. 

Firmy by se tak měly připravit na dobu, kdy jejich zaměstnanci budou intenzivně testováni falešnými online účty vydávajícími se za spolupracovníky, podvodnými hlasovými zprávami od nadřízených či falešnými video záběry. Nástroje jako zmiňovaný HeyGen mají sloužit k tvorbě marketingových či například onboardingových videí, ale velmi snadno se díky nim vytvoří také deepfake s někým úplně cizím, kdo o tom nemusí ani vědět.

Více informací o tom, jak je možné detekovat deepfakes a bránit se proti nim přibližuje, je možné nalézt v manuálu Deepfake 2024: Obranná strategie pro české firmy

-stk-