Efter deepfakes er der en ny grænse for AI-tricks: falske ansigter

“Alfonzo Macias” ser ved første øjekast ualmindelig ud – skægget, brillebrystet og med en kort enkehøjde. Men hans mærkeligt forvrængede briller og den opløsende baggrund bag ham antyder en ubehagelig sandhed: Hr. Macias har aldrig eksisteret.

Det er ikke muligt at opdage med det blotte øje, men det uhyggeligt menneskelige ansigt er i virkeligheden skabt af en algoritme – en algoritme, der bruges af det pro-Trump-medie TheBL til at give en identitet til en af de mange falske Facebook-konti, som de bruger til at drive trafik til deres websted.

Selv om de er mindre opsigtsvækkende end de virale deepfake-videoer, der har manipuleret politikeres og berømtheders tale og handlinger til populær effekt i de seneste år, er statiske ansigter genereret af kunstig intelligens ved at blive et stadig mere almindeligt værktøj til misinformation, siger eksperter.

I stedet for at få rigtige mennesker til at se ud til at sige og gøre ting, de ikke har sagt og gjort, fungerer teknikken ved at generere helt “nye” mennesker fra bunden.

Der er allerede blevet identificeret falske ansigter i bot-kampagner fra Kina og Rusland samt i højreorienterede online-medier og påstået legitime virksomheder. Deres udbredelse har ført til bekymring for, at teknologien kan udgøre en mere allestedsnærværende og presserende trussel end deepfakes, efterhånden som onlineplatforme kæmper med en stigende bølge af misinformation forud for valget i USA.

Rapporten fra Graphika og Atlantic Council's Digital Forensic Research Lab om falske identiteter viser afslørende tegn på, at profilbilledet for Alfonzo Macias er en deepfake
Rapporten fra Graphika og Atlantic Council’s Digital Forensic Research Lab om falske identiteter, der viser afslørende tegn på, at profilbilledet for Alfonzo Macias er et falsk

“For et år siden var dette en nyhed,” tweetede Ben Nimmo, undersøgelsesdirektør hos efterforskningsgruppen Graphika, der beskæftiger sig med sociale medier. “Nu føles det som om, at hver operation, vi analyserer, prøver dette mindst én gang.”

Face race

Lige deepfakes skabes AI-genererede ansigter ved hjælp af en teknologi, der er kendt som GANs, eller generative adversarial networks. Et netværk genererer indhold, mens et andet sammenligner det med menneskelige ansigter og tvinger det til at forbedre sig, indtil det ikke kan skelne det syntetiske billede fra et ægte ansigt.

Digitale gengivelser af fiktive mennesker har haft en voksende tilstedeværelse online i de seneste år, med stjerner som den virtuelle popstjerne, model og aktivist Miquela, der har tiltrukket sig store følgere på Instagram og Twitter. Men det, der adskiller GAN-genererede ansigter fra andre, er deres fotorealisme – det detaljeniveau, der giver karaktererne en mærkelig livlighed.

“De nyeste GAN-modeller kan nu bruges til at skabe meget realistiske syntetiske billeder af menneskelige ansigter ned til de mindste detaljer – især hud og hår,” sagde Siwei Lyu, professor i datalogi ved University at Albany, State University of New York.

ThisPersonDoesNotExist, et websted, der skaber et StyleGAN2-ansigt, hver gang det opdateres, demonstrerer, hvor overbevisende sådanne billeder kan være. Teknikken er dog heller ikke begrænset til menneskelige ansigter, idet der findes snesevis af varianter, der spænder fra biler til katte.

Mens bekymringen over AI-drevne misinformationer i høj grad havde fokuseret på politiske deepfakes, var der endnu ikke opstået en væsentlig sag, sagde Henry Ajder, en forsker, der har specialiseret sig i deepfakes og syntetiske medier. “Der har ikke været den slags Trump, der har viftet med den røde atomknap rundt.”

Der er imidlertid dukket eksempler op på GAN-genererede falske ansigter, der er blevet brugt til vildledning, siden juni sidste år, da Associated Press identificerede en konto på LinkedIn, der udgav sig for at være ansat i en tænketank.

Anvendelse af teknikken i større skala blev først identificeret i december, da Graphika og Atlantic Council’s Digital Forensic Research Lab offentliggjorde en rapport om et netværk af over 900 sider, grupper og konti, der var knyttet til det højreorienterede nyhedsmediehus Epoch Media Group. “De brugte disse falske ansigter til at styrke deres tilstedeværelse på Facebook og levere deres budskaber til et bredere publikum”, sagde Max Rizzuto, forskningsmedarbejder ved DFR Lab.

En montage af ansigter genereret af thispersondoesnotexist.com
Alle disse ansigter blev genereret af thispersondoesnotexist.com.

Nationalstater har også opdaget teknologiens potentiale, og Graphika har opdaget snesevis af GAN-genererede ansigter, der er blevet brugt i kampagner med forbindelse til Kina og Rusland. I Kinas tilfælde blev GAN-genererede billeder brugt som profilbilleder i en Facebook-kampagne med falske konti, der fremførte Beijing-venlige talepunkter om emner som Taiwan, Det Sydkinesiske Hav og Indonesien.

De russiske kampagner havde derimod brugt falske ansigter til at skabe personligheder for fiktive redaktører bag politiske nyhedsmedier, der skaber uenighed.

Giorgio Patrini, administrerende direktør for Deepfake-detektionsplatformen Sensity, sagde, at GAN-genererede ansigter også dukkede op i erhvervslivet, med eksempler, herunder et softwarefirma, der brugte falske ansigter til kundeudtalelser, og et marketingfirma, der brugte teknologien til at generere billeder af sit “team”.

“Dette er faktisk et opspind”

Det første skridt til at bekæmpe risikoen ved GAN-genererede ansigter var at udbrede kendskabet til deres eksistens, sagde Rizzuto. “Når man fortæller disse mennesker, at det faktisk er en opspind, kan man se denne udviklede sans, som alle mennesker har for at opdage abnormiteter i et billede.”

På trods af de bemærkelsesværdige fremskridt bag StyleGAN2 var der en række afslørende tegn på en forfalskning, sagde han – for eksempel kan en persons hoved være skævt, mens næse og tænder forbliver lige. Algoritmen kan også have svært ved at inkorporere baggrundsobjekter og andre mennesker, hvilket nogle gange skaber utilsigtet ubehagelige briller.

En anden potentiel gaveaway, som Graphika bemærkede, er, at øjnene på GAN-genererede ansigter alle vises samme sted i billedet, uanset hvilken vej “subjektet” vender.

I mellemtiden er forskere, myndigheder og teknologivirksomheder i gang med at opbygge og forbedre modeller til at opdage falske ansigter. Lyu var blandt forfatterne til en artikel om en sådan teknik, som studerede billederne af objekter, der reflekteres i forsøgspersoners øjne, for at skelne rigtige ansigter fra falske.

Feltet er i konstant udvikling, sagde Rizzuto og pegede på deepfake-forskningen fra Samsung sidste år, som forvandlede Mona Lisa til et realistisk talende hoved. Han sagde, at teknologien en dag kunne anvendes til at skabe mere realistiske falske profiler og skabe billeder med en række forskellige vinkler og udtryk.

“Den potentielle evne til at bedrage opvejes lidt af den mængde arbejde, der ville være nødvendigt for at gennemføre det,” sagde han. “I den nærmeste fremtid vil jeg forvente at se det … blive betydeligt mindre.”

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.