Deepfakes se stávají stále reálnější hrozbou

neděle, 4. srpna 2019, 09:05 Internet & Mobil MediaGuru

Snadný přístup k nástrojům na manipulování videa je podle odborníků otázkou několika měsíců.

Zdroj: Repro IG @bill_posters_uk

Zdroj: Repro IG @bill_posters_uk

Pokud jste se už obeznámili s výrazem fake news, vězte, že bude hůř. Nadchází éra deepfakes, tedy zmanipulovaných videí, která jsou téměř nerozpoznatelná od skutečných. Už nyní se zfalšovaných záběrů, k jejichž šíření výrazně napomáhají sociální sítě, obávají nejen herci, ale i politici. Ostražitý by však měl být každý, jehož fotografie či videozáběry kolují kdesi po online prostoru.

V minulých letech vzniklo mnoho zfalšovaného obsahu, u něhož doposud šlo o zavádějící články či zmanipulované fotografie. Podle Hanyho Farida, profesora z Kalifornské univerzity v Berkeley, se však doba, kdy budou lidé muset počítat i se zmanipulovatelnými videy, nezadržitelně blíží. Jak uvedl pro The Wall Street Journal díky strojovému učení a umělé inteligenci se nástroje k takovému falšování zjednodušují: „Demokratizuje se tak přístup k neuvěřitelně mocnému softwaru.“

Zmanipulované video bylo doposud výsadou filmového světa. Za příklad mohou posloužit záběry Forresta Gumpa při rozhovoru s Johnem Fitzgeraldem Kennedym. V poslední době se však takové montáže objevují i mimo stříbrné plátno. Obličeje hereček Angeliny Jolie nebo Emmy Watson se tak objevily v pornofilmech a podobné zkušenosti mají i ženy mnohem méně známé – stačí, že jejich fotografie jsou dohledatelné na internetu.

Podle nové studie londýnské Imperial College a výzkumného centra umělé inteligence společnosti Samsung, dnes stačí k falešnému rozmluvení daného člověka jedna jediná fotografie. Rozmluvit se tak dá například Albert Einstein nebo nechat Rasputina zazpívat píseň Halo od Beyoncé.

Videa sice zatím nejsou dokonalá, nicméně vývoj je na tomto poli velmi dynamický. „Přestože uměle generovaná videa většina lidí stále snadno rozezná, situace se rychle mění. Podle mne uvidíme již za méně než 12 měsíců okem nezjistitelné deepfakes,“ řekl Jeffrey McGregor, CEO start-upu Truepic, zabývající se ověřováním vizuálního obsahu. Kromě obličeje se čím dál víc zdokonaluje také nápodoba pohybu celého těla.  

Deepfakes nemusí jen vážně poškodit pověst, ale mohou mít dalekosáhlé důsledky i na obchodním či politickém poli. Navíc se to nyní už se to děje, což dokazuje nedávná aféra s upravenými videy s Nancy Pelosi, na nichž mluvila šéfka demokratů v americké Sněmovně reprezentantů pomaleji, zadrhávala se a celkově vyznívala přiopile. Videa se začala šířit virálně, a byť bylo prokázáno, že šlo očividně o zfalšované verze, Facebook je odmítl smazat.

Následně však Mark Zuckerberg připustil, že s deepfakes musí jeho sociální síť, pod kterou patří i stále rostoucí Instagram nebo chatovací aplikace Messenger a WhatsApp, pracovat jinak než s fake news. Sám se ostatně stal objektem zfalšovaného videa, v němž „upřímně popisuje misi své společnosti“.

Rizika deepfakes jsou tak opravdu velká, zfalšovaná videa totiž mohou ovlivnit výše akcií, poškodit kandidáty předvolebního klání, vyvolat mezinárodní diplomatickou krizi, či dokonce zapříčinit i vojenský konflikt. Za oceánem se jejich významné vlny obávají již pro nadcházející prezidentské volby.

-stk-