Algoritmus od OpenAI pozná uměle vygenerované fotky. Má na to fintu

Zkušené lidské oko stále dokáže rozeznat skutečnou fotku od té vygenerované umělou inteligencí. Ovšem některé lepší generátory při správných promptech již dokáží na první pohled oklamat a do budoucna bude rozeznávání skutečných a vygenerovaných fotek složitější.

Aktuálně se tedy řeší, jak jednoznačně odlišit umělé fotky od těch reálných. Nejjednodušší cestou se zdá být jejich identifikace skrze metadata. OpenAI ve svém generátoru fotek DALL-E již výsledným obrázkům dodává patřičná metadata, podle nich potom dokáže odhalit uměle vytvořené snímky. Má to ovšem dva háčky.

openAI.png

Tím prvním je možnost metadata odstranit. OpenAI používá „tamper-resistant“ metadata, která zůstávají přítomná i při dalším zpracování, posílání nebo sdílení obrázků. Účinnost poznávání vygenerovaných fotek z DALL-E je tak 98,8 %.

Druhým háčkem je, že algoritmus rozpozná obsah vygenerovaný konkurenčními umělými inteligencemi v 5 až 10 % případů. OpenAI je totiž průkopníkem v rozšiřování C2PA standardu metadat. Další generátory jej zatím neadoptovaly a zatím není jasné, zdali a kdy tak učiní.

Co je však zřejmé – do budoucna budeme potřebovat autentifikační standard, který bude umět říct, zdali je snímek skutečně vyfocený, zdali s ním bylo manipulováno, nebo jestli jde o vygenerovaný obrázek. Aby to fungovalo, musí na stejné standardy přistoupit všechny generátory nejen fotek, ale do budoucna i audio nahrávek a videí.

Zdroj: Petapixel

Určitě si přečtěte

Články odjinud