Přeskočit na obsah

Deepfake

Koukolík František1.jpg
Foto: Jiří Koťátko

Deepfake, spojení slov deep (hluboký) a fake (podvržená informace), je souhrnný pojem pro vytváření, manipulaci a modifikaci dat automatizovanými prostředky, zejména užitím algoritmů umělé inteligence. Smyslem je změna původních informací. Deepfake přiměje tvář, aby říkala něco docela jiného, než říkala původně, a přidá jí k tomu úšklebky. Vymění jednu tvář za jinou. Nasadí hlavu proslulé herečky na tělo pornoherečky.

Videozáznam byl svědectví. Deepfake platnost svědectví ničí.

Každá zbraň se v dějinách potkala s protizbraní. Současné umělé neuronové sítě vyhrávají v šachu i ve hře go, dokážou i lépe diagnostikovat choroby. Dobře určí, že tento jev není fyzikálně možný, například polohu stínů, odrazů světla a pochybnou perspektivu. Algoritmy poznávající tváře překonávají i soudní znalce, jejichž výkon je lepší, než je výkon běžných lidí, v určení, zda jsou, nebo nejsou dvě pozorované tváře totožné.

Rozliší umělé neuronové sítě podvrhy lépe než lidé?

Dvě online studie zapojily 15 016 účastníků. Předvedly jim pravdivé videozáznamy a podvrhy. Úkolem bylo jejich správné rozlišení. Pak porovnaly výkon lidských pozorovatelů s výkonem nejlepších současných umělých detektorů zrakových podvrhů. Těch je celá řada. V jejich vzájemné soutěži vyhrál model, kterému studie říká vedoucí, pojmenuji ho Program. Kromě toho se výzkum zeptal, jak přesně lidé rozlišují podvrhy, zda existuje „moudrost davu“, což je kolektivní názor skupiny, nikoli jednotlivce, byť experta, jaký je vztah názoru jednotlivce k názoru skupiny a jaký je jejich vztah k výkonu Programu.

„Moudrost davů“ neboli wisdom of crowds vychází z toho, že názory každého jedince jsou zatíženy nějakým šumem. Průměr názorů má tento šum omezit. Další otázky zjišťovaly, zda předpověď Programu jednotlivcům pomůže, nebo naopak, a co ovlivňuje rozptyl odpovědí jednotlivých lidí a výkonu stroje. Kromě toho se ptaly, jak působí kvalita videozáznamu i zda lidi v rozlišování ovlivňuje emoční priming. Takže otázek bylo moc.

Vědci vytvořili webovou stránku nazvanou Detect fakes, kterou mohl navštívit každý zájemce a rozhodnout, zda je těžké, nebo lehké rozlišit podvrh od záznamu skutečnosti, a kromě toho uvést, zda a jak mu pomáhá informace Programu uvádějící výši pravděpodobnosti, se kterou je video podvrh.

Prvním experimentem byla vynucená volba, která měla dvě možnosti: rozlište v 56 párech videí, co je a co není podvrh. Podíl pravých a podvržených videí lidé neznali. Polovinu videí správně rozlišilo 83 procent účastníků. Šestnáct párů videí rozlišilo rozmezí mezi 83 a 65 procenty účastníků. Dvanáct párů videí rozlišilo správně méně než 65 procent účastníků. Tři páry videí správně rozlišilo méně než 50 procent účastníků. Program rozlišoval se 65procentní přesností, tedy hůře než většina lidí.

V druhém experimentu lidé věděli, že je polovina videí pravá, polovina jsou podvrhy, znali tedy podíl. Po zhlédnutí videa určovali pozorovatelé pravděpodobnost, že jde o podvrh, měřítkem, které se posunovalo po jednom procentu po škále od „100% přesvědčení, že nejde o podvrh“ ke „100% přesvědčení, že o podvrh jde“. Posun začal ve středu měřítka, na 50 procentech, takže se nikdo nemohl rozhodnout s menší než poloviční pravděpodobností.

Pozorovatelé sledovali 50 videí. Součástí byla čtyři videa Vladimira Putina a severokorejského vůdce Kim Čong‑una. V jednom případě šlo o podvrh, v jednom o pravé video, dvě videa byla cílena na kontrolu pozornosti.

V tomto experimentu záležel výkon lidí a Programu na řadě proměnných: na populaci lidských pozorovatelů, populaci videí, způsobu měření v individuální a skupinové úrovni i na tom, zda jsou videa prezentována jedno vedle druhého nebo samostatně. Někdy byli lepší lidé, jindy Program.

Lidé, kteří prošli testem pozornosti, určovali podvrhy v 66–69 procentech případů. Program je rozlišil v 80 procentech, nicméně jednotliví lidé rozlišovali lépe. Lépe lidé rozlišovali politická videa. „Moudrost davu“ rozlišovala v rozmezí 74 až 86 procent.

Rozlišování značně záleží na kvalitě videa. S menší než 50procentní správností rozlišovaly jak „moudrost davu“, tak Program videa, v nichž byl záběr velmi rozmazaný a záběr herečky byl snímán tak, že odraz světla v jejích brýlích oslňoval.

Lidé mohou s umělou inteligencí spolupracovat. Součástí experimentu byla nápověda, kterou Program lidem sdělil: „S touto pravděpodobností je video podvrh“. Lidé mohli na základě této informace svůj odhad změnit. Přesnost odhadů se zvýšila. Zajímavé je, že Program mylně odhadl podvrhy videí s Kim Čong‑unem a Vladimirem Putinem. Lidi zavedl, takže odhad, že jde o podvrh, klesl v Kimově případě z 56 procent na 34 procent, u podvrhu s Vladimírem Putinem ze 70 procent na 55 procent.

Odhad podvrhu ovlivňují vlastnosti videozáznamu: zrnitost, ostrost, šero a tma, kmitání tváří, přítomnost dvou lidí, pohyblivý rozptylující podnět a tmavší pleť. Čím výraznější jsou tyto znaky videa, tím horší odhad podvrhu, nicméně Program i tato videa odhaduje o trochu lépe než lidé.

Pokud video vyvolá u pozorovatele hněv, přesnost odhadu, že jde o podvrh, se o několik procentních bodů sníží. Zakryté oči pozorovaného jedince ji sníží taky.

Deepfake algoritmy týkající se tváří svedou netrénovaní lidé rozlišovat se slušnou pravděpodobností. Jsme totiž nositeli vysoce specializované neuronové sítě, která se vyvíjela desítky milionů let, specializované na poznávání všech aspektů tváře, například stáří, gen­deru, nálady, rasové příslušnosti, a to ve všech úhlech pozorování a za nejrůznějšího osvětlení. Síť je plně funkční od velmi raného dětství. Dva lidé na videu lidský odhad nezhoršují, Program s tím má potíže.

Je pravděpodobné, že schopnost poznat podvrh bude u budoucích podob Programu lepší. Lepší však bude i kvalita podvrhů, což je známý běh na místě Červené královny z Carrollovy knihy Alenka v říši divů. Vystihuje vztah parazitů a hostitelů stejně jako spirálu zbrojení.

Praktické rady usnadňující poznávání podvržených videí říkají:

  • Věnujte pozornost tvářím. Manipulace skoro vždy zahrnují proměny tváře.
  • Dívejte se na líce a čelo. Je kůže nápadně hladká nebo naopak nápadně vrásčitá? Odpovídá stárnutí kůže stárnutí vlasů a očí? Deepfake tady často dělá chyby.
  • Sleduje oči a obočí. Objevují se stíny tam, kde mají být? Deepfake někdy nezvládá fyziku. Jak často tvář mrká? Příliš často nebo skoro nemrká?
  • Zaměřte se na brýle. Září? Nezáří moc? Mění se úhel jejich odrazu, když se osoba pohybuje? Deepfake si nemusí vědět rady s optikou.
  • A co vousy? Deepfake přidává knír, licousy nebo plnovous, ale neumí to vždy udělat tak, aby vznikl přirozený dojem.
  • Dávejte pozor na mateřská znaménka. Odpovídají skutečnosti?
  • Všímejte si barvy i velikosti rtů. Odpovídají ostatní tváři?

S chutí do toho. Nejste‑li si jisti, pravidlo kritického myšlení říká: „Nestyď se říct ‚nevím‘ a s rozhodnutím počkej.“ 

Sdílejte článek

Doporučené