Společnost Microsoft představila tzv. Video Authenticator, nový nástroj využívající umělou inteligenci, který analyzuje statické obrázky a videa, aby určil, zda na nich byla nějak upravena tvář. Tento nástroj je navržen tak, aby odhalil zejména „Deepfake“, čili vysoce realistickou manipulaci s obsahem generovaným nebo upravovaným systémy jiné umělé inteligence.
I když lze technologii Deepfake použít kreativně, je nejvíce spojena s manipulací s médii (Fake News), která jednoduše ukazují něco, co se ve skutečnosti nestalo. Typickým příkladem jsou politické proslovy, ve kterých daný aktér říká něco, co nikdy neřekl, nebo dělá něco, co nikdy neudělal.
Protože jsou tyto falešné zprávy vytvářeny pomocí algoritmů strojového učení, je výsledný obsah obvykle velmi kvalitní. Pro mnohé je tak velice těžké vůbec rozeznat, že se nejedná o realitu. Řešením této manipulace s umělou inteligencí je paradoxně další umělá inteligence, která je schopna tyto změny odhalit.


Odhalit manipulaci s obrazem je pro mnohé velice obtížné. Microsoft vám v tom ale pomůže.
Z 96 různých kampaní identifikovaných nástrojem společnosti Microsoft, z nich 93 % zahrnovalo původní obsah. A ačkoli není Video Authenticator dlouhodobým řešením, Microsoft u něho vysvětluje, že v krátkodobém horizontu, např. v nadcházejících prezidentských volbách v USA, mohou být jeho pokročilé detekční technologie skutečně užitečným nástrojem, který pomůže běžným uživatelům identifikovat případné podvody.
Video Authenticator funguje tak, že analyzuje každý snímek ve videu obsažený, ale i samostatné statické snímky. Poté jim přiřadí „procentuální šanci“ (kterou také nazývá skóre spolehlivosti). Ta následně ukazuje pravděpodobnost, že bylo se zdrojem manipulováno. Procenta přitom nástroj ukazuje v reálném čase.