Zdroj: pixabay.com

Nový nástroj na odhalování deep fakes videí využívá medicínskou technologii a sleduje, jestli mluvčí tepou

Na poli dezinformací jsme svědky neustálého rozvoje tzv. deep fakes nástrojů. Ty dokáží generovat čím dál dokonalejší videoklipy, v nichž umělá inteligence „animuje“ osoby včetně jejich hlasu. Může se tak stát, že bývalý americký prezident Obama se stane největším rasistou nebo Trump milovníkem produktů společnosti Huawei. Úroveň některých z těchto videí je na takové úrovni, že je téměř nelze rozeznat od reality.

Na vznik těchto nástrojů samozřejmě reaguje i „druhá strana“, tedy ti, kdo se snaží šíření dezinformací zabránit. Cílem tohoto snažení je vytvořit nástroje, které dokáží efektivně, nejlépe v reálném čase deep fakes videa odhalit a upozornit na to diváka. Problém je, že na řadu těchto nástrojů dokázali tvůrci algoritmů pro tvorbu deep fakes reagovat. Jeden z nástrojů využíval k odhalení podvodu toho, že postavy ve videu nemrkali. Tvůrci deep fakes měli rázem k dispozici nástroje na implementaci mrkání.

Nejnovější pokus o nástroj proti DF využívá techniku známou jako fotopletysmografie. Tato technogie dokáže měřit jemné barevné změny pokožky závislé na prokrvení, a na jejich základě potom určovat tepovou frekvenci. Je to stejná technologie, jaká se používá ve zdravotnictví nebo ve fitness náramcích a chytrých hodinkách.

I když tento jev není viditelný pouhým okem, na videozáznamench je při použití technologie patrný, a to dokonce i při kvalitě videa, jakou je schopná poskytovat běžná webová kamera. Díky tomu mohl být vyvinut nástroj nazvaný FakeCatcher, na jehož vzniku se podílela Binghamton University a společnost Intel. Postavy generované na základě algoritmů jednoduše netepají. Pro umělou inteligenci by navíc mohlo být poměrně složité vytvořit zdání tohoto procesu u generovaných mluvčích.

První testy ukazují úspěšnost při odhalovaní uměle vytvořených videí vyšší než 90 procent.

Zdroj: gizmodo.com

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna.