Umělá inteligence rozpozná dokonalá falešná videa
Umělá inteligence rozpozná dokonalá falešná videa

Video: Umělá inteligence rozpozná dokonalá falešná videa

Video: Umělá inteligence rozpozná dokonalá falešná videa
Video: The Perfect, Last-Minute Kids' Costumes! - YouTube 2024, Březen
Anonim
V Anglii začíná premiéra opery o otravě Litviněnkem
V Anglii začíná premiéra opery o otravě Litviněnkem

Před rokem Stanfordův Manish Agrawala pomohl vyvinout technologii synchronizace rtů, která umožnila editorům videa měnit slova řečníků téměř neznatelně. Tento nástroj mohl snadno vkládat slova, která člověk nikdy neřekl, dokonce ani uprostřed věty, nebo odstranit slova, která řekl. Všechno bude vypadat realisticky pouhým okem a dokonce i mnoha počítačovým systémům.

Tento nástroj výrazně usnadnil opravu chyb bez opakovaného natáčení celých scén a také přizpůsobil televizní pořady nebo filmy pro různé cílové skupiny na různých místech. Tato technologie však také vytvořila nové znepokojivé příležitosti pro těžko dostupná falešná videa s jasným záměrem zkreslit pravdu. Nedávné republikánské video například používalo drsnější techniku pro rozhovor s Joe Bidenem.

Letos v létě Agrawala a kolegové ze Stanfordu a UC Berkeley představili přístup založený na umělé inteligenci k technologii lip-sync. Nový program přesně detekuje více než 80 procent padělků a rozpoznává nejmenší rozdíly mezi zvuky lidí a tvarem jejich úst.

Agrawala, ředitel Stanfordského institutu pro mediální inovace a profesor počítačové vědy na Forest Baskett, který je rovněž členem Stanfordského institutu pro umělou inteligenci zaměřenou na člověka, ale varuje, že neexistuje dlouhodobé technické řešení hlubokých padělků.

Jak padělky fungují

Manipulace s videem má své oprávněné důvody. Každý, kdo například natáčí fiktivní televizní pořad, film nebo reklamu, může ušetřit čas a peníze pomocí digitálních nástrojů k opravě chyb nebo přizpůsobení skriptů.

Problém nastává, když jsou tyto nástroje záměrně použity k šíření nepravdivých informací. A mnohé z technik jsou pro běžného diváka neviditelné.

Mnoho hlubokých falešných videí se spoléhá na výměnu obličejů a doslova překrývá obličej jedné osoby na video jiné osoby. Ale i když nástroje pro změnu obličeje mohou být přesvědčivé, jsou relativně hrubé a obvykle zanechávají digitální nebo vizuální artefakty, které počítač dokáže detekovat.

Na druhou stranu jsou technologie synchronizace rtů méně viditelné, a proto je obtížnější je detekovat. Manipulují s mnohem menší částí obrazu a poté syntetizují pohyby rtů, které přesně odpovídají tomu, jak by se ve skutečnosti pohybovala ústa člověka, kdyby mluvil určitá slova. Podle Agrawala může falešný producent s ohledem na dostatek vzorků obrazu a hlasu člověka přimět „říct“cokoli.

Detekce padělků

V obavách z neetického používání takové technologie spolupracoval Agrawala s Ohadem Freedem, doktorandem na Stanfordu, na vývoji detekčního nástroje; Hani Farid, profesor Kalifornské univerzity na Berkeley School of Information; a Shruti Agarwal, doktorandka v Berkeley.

Vědci nejprve experimentovali s čistě manuální technikou, při níž pozorovatelé studovali videozáznamy. Fungovalo to dobře, ale v praxi to bylo pracné a časově náročné.

Vědci poté testovali neuronovou síť založenou na umělé inteligenci, která by byla mnohem rychlejší po provedení tréninku na videu s bývalým prezidentem Barackem Obamou. Neuronová síť detekovala více než 90 procent Obamovy vlastní synchronizace rtů, i když přesnost u ostatních reproduktorů klesla na zhruba 81 procent.

Skutečný test pravdy

Vědci tvrdí, že jejich přístup je jen součástí hry na kočku a myš. Jak se techniky hlubokého padělání zlepšují, zanechají ještě méně klíčů.

Agrawala říká, že skutečným problémem není ani tak boj proti hluboce falešným videím, jako boj proti dezinformacím. Ve skutečnosti poznamenává, že velká část dezinformací vzniká zkreslením smyslu toho, co lidé skutečně řekli.

"Abychom omezili dezinformace, musíme zlepšit mediální gramotnost a vyvinout systémy odpovědnosti," říká. „To může znamenat zákony zakazující záměrné vytváření dezinformací a důsledky jejich porušování, jakož i mechanismy pro odstraňování výsledné újmy.“

Doporučuje: