“Alfonzo Macias” vypadá na první pohled nenápadně – vousatý, obrýlený, s krátkým vdovským kšiltem. Jeho podivně zkreslené brýle a rozplývající se pozadí za ním však naznačují nepříjemnou pravdu: pan Macias nikdy neexistoval.
Pouhým okem nezjistitelná, podivně lidská tvář je ve skutečnosti výtvorem algoritmu – takového, který používá pro-trumpovské médium TheBL, aby dalo identitu jednomu z mnoha falešných účtů na Facebooku, které používá k přivádění návštěvníků na své webové stránky.
Ačkoli statické tváře generované umělou inteligencí nebudí takovou pozornost jako virální deepfake videa, která v posledních letech s oblibou manipulují s projevy a činy politiků a celebrit, stávají se podle odborníků stále častějším nástrojem dezinformací.
Místo toho, aby se zdálo, že skuteční lidé říkají a dělají věci, které neřekli, funguje tato technika tak, že od základu generuje zcela “nové” osoby.
Falešné tváře již byly identifikovány v botových kampaních z Číny a Ruska, stejně jako v pravicových internetových médiích a údajně legitimních firmách. Jejich šíření vedlo k obavám, že by tato technologie mohla představovat všudypřítomnější a naléhavější hrozbu než deepfakes, protože online platformy se před americkými volbami potýkají s rostoucí vlnou dezinformací.
“Před rokem to byla novinka,” napsal na Twitteru Ben Nimmo, ředitel vyšetřování ve skupině Graphika zabývající se průzkumem sociálních médií. “Teď mám pocit, že každá operace, kterou analyzujeme, to alespoň jednou zkusí.”
Závod o tvář
Stejně jako deepfakes jsou tváře generované umělou inteligencí vytvářeny pomocí technologie známé jako GAN neboli generativní adverzní sítě. Jedna síť generuje obsah, zatímco druhá jej porovnává s lidskými tvářemi a nutí ji zlepšovat se, dokud nedokáže rozeznat syntetický obraz od skutečné tváře.
Digitální ztvárnění fiktivních lidí má v posledních letech na internetu stále větší zastoupení, přičemž hvězdy jako virtuální popová hvězda, modelka a aktivistka Miquela přitahují na Instagramu a Twitteru obrovské množství příznivců. Co však obličeje generované pomocí GAN odlišuje, je jejich fotorealismus – úroveň detailů, která postavám dodává zvláštní realističnost.
“Nejnovější modely GAN lze nyní použít k vytvoření vysoce realistických syntetických obrazů lidských tváří, a to až do nejmenších detailů – zejména kůže a vlasů,” uvedl Siwei Lyu, profesor počítačových věd na univerzitě v Albany, State University of New York.
ThisPersonDoesNotExist, webová stránka, která při každém obnovení vytváří obličej StyleGAN2, ukazuje, jak přesvědčivé mohou takové obrázky být. Tato technika se však neomezuje pouze na lidské obličeje – existují desítky jejích variant, od automobilů až po kočky.
Ačkoli se obavy z dezinformací poháněných umělou inteligencí soustředily převážně na politické deepfakes, podstatný případ se teprve objeví, uvedl Henry Ajder, výzkumník, který se specializuje na deepfakes a syntetická média. “Zatím nedošlo k takovému případu, kdy by Trump mával jaderným červeným tlačítkem.”
Případy falešných tváří generovaných GAN a používaných k podvodům se však objevují již od loňského června, kdy agentura Associated Press identifikovala účet na síti LinkedIn, který se vydával za zaměstnance think-tanku.
Poprvé bylo použití této techniky ve větším měřítku identifikováno v prosinci, kdy Graphika a laboratoř Atlantic Council’s Digital Forensic Research Lab zveřejnily zprávu o síti více než 900 stránek, skupin a účtů napojených na pravicový zpravodajský server Epoch Media Group. “Tyto falešné tváře používali k posílení své přítomnosti na Facebooku a k doručení svých zpráv širšímu publiku,” uvedl Max Rizzuto, výzkumný pracovník DFR Lab.
Potenciálu této technologie si mezitím všimly i národní státy – společnost Graphika objevila desítky obličejů vygenerovaných pomocí GAN, které byly použity v kampaních spojených s Čínou a Ruskem. V případě Číny byly obrázky generované pomocí GAN použity jako profilové obrázky v kampani na Facebooku, přičemž falešné účty prosazovaly propekingská témata včetně Tchaj-wanu, Jihočínského moře a Indonésie.
Ruské kampaně naopak používaly falešné obličeje k vytvoření osobností fiktivních redaktorů stojících za rozdělujícími politickými zpravodajskými kanály.
Giorgio Patrini, výkonný ředitel platformy pro detekci deepfake Sensity, uvedl, že tváře generované pomocí GAN se objevují také ve firemním světě, přičemž mezi příklady patří softwarová společnost, která používala falešné tváře pro svědectví klientů, a marketingová společnost, která tuto technologii použila k vygenerování fotografií svého “týmu”.
“Ve skutečnosti se jedná o výmysl”
Prvním krokem k boji proti riziku tváří generovaných pomocí GAN bylo šíření povědomí o jejich existenci, uvedl pan Rizzuto. “Jakmile těmto lidem řeknete, že je to vlastně výmysl, můžete vidět tento vyvinutý smysl, který mají všichni lidé, aby rozpoznali abnormality v obraze.”
Přes pozoruhodný pokrok, který stojí za systémem StyleGAN2, existuje podle něj řada poznávacích znamení padělku – například hlava subjektu může být nakloněná, zatímco nos a zuby zůstávají rovné. Algoritmus se také může potýkat s problémy při začleňování objektů v pozadí a dalších osob, což někdy vytváří nechtěně nepříjemné podívané.
Dalším potenciálním prozrazením, kterého si Graphika všiml, je to, že oči obličejů generovaných pomocí GAN se všechny objevují na stejném místě v rámci obrazu, bez ohledu na to, jakým směrem je “subjekt” otočen.
Výzkumníci, vládní orgány a technologické společnosti mezitím vytvářejí a vylepšují modely pro detekci falešných obličejů. Pan Lyu byl jedním z autorů článku o jedné takové technice, která studovala obrazy objektů odrážejících se v očích subjektů s cílem rozlišit skutečné tváře od falešných.
Obor se neustále vyvíjí, řekl pan Rizzuto a poukázal na loňský výzkum deepfake společnosti Samsung, který proměnil Monu Lisu v realistickou mluvící hlavu. Podle něj by se tato technologie mohla jednoho dne uplatnit při vytváření realističtějších falešných profilů a vytvářet snímky s různými úhly a výrazy.
“Potenciální schopnost klamat tak trochu převažuje množství práce, které by bylo potřeba k jejímu uskutečnění ,” řekl. “V blízké budoucnosti bych očekával, že se to … značně zmenší.”
.