Efter deepfakes, en ny gräns för AI-trick: falska ansikten

“Alfonzo Macias” ser oansenlig ut vid en första anblick – skäggig, med briljanter och en kort änkestopp. Men hans märkligt förvrängda glasögon och den upplösande bakgrunden bakom honom antyder en obehaglig sanning: Alfonzo Macias har aldrig existerat.

Det är omöjligt att upptäcka med blotta ögat, men det märkligt mänskliga ansiktet är i själva verket skapad av en algoritm – en algoritm som används av det Trumpvänliga medieföretaget TheBL för att ge en identitet till ett av de många falska Facebook-konton som företaget använder för att driva trafik till sin webbplats.

Och även om de är mindre uppmärksammade än de virala deepfake-videor som under de senaste åren har manipulerat politikers och kändisars tal och handlingar för att få populär effekt, blir statiska ansikten genererade av artificiell intelligens ett allt vanligare verktyg för desinformation, menar experter.

Istället för att få verkliga människor att verka säga och göra saker som de inte har sagt och gjort fungerar tekniken genom att generera helt “nya” människor från grunden.

Redan nu har falska ansikten identifierats i bot-kampanjer från Kina och Ryssland, liksom i högerextrema nätmedier och påstådda legitima företag. Deras spridning har lett till farhågor om att tekniken skulle kunna utgöra ett mer allestädes närvarande och akut hot än deepfakes, eftersom plattformar på nätet kämpar med en stigande våg av felaktig information inför det amerikanska valet.

Rapporten från Graphika och Atlantic Councils Digital Forensic Research Lab om falska identiteter visar tecken på att profilbilden för Alfonzo Macias är en deepfake
Rapporten från Graphika och Atlantic Councils Digital Forensic Research Lab om falska identiteter, visar avslöjande tecken på att profilbilden för Alfonzo Macias är en bluff

“För ett år sedan var detta en nyhet”, twittrade Ben Nimmo, chef för utredningar vid underrättelsegruppen Graphika för sociala medier. “Nu känns det som om varje verksamhet vi analyserar försöker detta minst en gång.”

Förmånen om ansikten

Likt deepfakes skapas AI-genererade ansikten med hjälp av en teknik som kallas GAN, eller generative adversarial networks (generativa adversariella nätverk). Ett nätverk genererar innehåll, medan ett annat jämför det med mänskliga ansikten och tvingar det att förbättras tills det inte kan skilja den syntetiska bilden från ett riktigt ansikte.

Digitala framställningar av fiktiva människor har haft en ökande närvaro på nätet under de senaste åren, med stjärnor som den virtuella popstjärnan, modellen och aktivisten Miquela som drar till sig stora följarskaror på Instagram och Twitter. Men det som skiljer de GAN-genererade ansiktena åt är deras fotorealism – den detaljnivå som ger karaktärerna en märklig livfullhet.

“De senaste GAN-modellerna kan nu användas för att skapa mycket realistiska syntetiska bilder av mänskliga ansikten, ända ner till de minsta detaljerna – i synnerhet hud och hår”, säger Siwei Lyu, professor i datavetenskap vid University at Albany, State University of New York.

ThisPersonDoesNotExist, en webbplats som skapar ett StyleGAN2-ansikte varje gång den uppdateras, visar hur övertygande sådana bilder kan vara. Tekniken är dock inte heller begränsad till mänskliga ansikten, med dussintals varianter som sträcker sig från bilar till katter.

Och även om oron för AI-driven desinformation till stor del har fokuserat på politiska deepfakes, så har det ännu inte uppstått något konkret fall, säger Henry Ajder, en forskare som specialiserat sig på deepfakes och syntetiska medier. “Det har inte funnits någon Trump som viftat med den röda kärnvapenknappen.”

Fall av GAN-genererade falska ansikten som använts för att vilseleda har dock dykt upp sedan juni förra året, då Associated Press identifierade ett konto på LinkedIn som utgav sig för att vara anställd vid en tankesmedja.

En mer omfattande användning av tekniken identifierades för första gången i december, när Graphika och Atlantic Councils Digital Forensic Research Lab släppte en rapport om ett nätverk med över 900 sidor, grupper och konton som var kopplade till den högerextrema nyhetsbyrån Epoch Media Group. “De använde dessa falska ansikten för att stärka sin närvaro på Facebook och leverera sina budskap till en bredare publik”, säger Max Rizzuto, forskningsassistent vid DFR Lab.

Ett montage av ansikten som genererats av thispersondoesnotexist.com
Alla dessa ansikten genererades av thispersondoesnotexist.com.

Nationella stater har också upptäckt teknikens potential, och Graphika upptäckte dussintals GAN-genererade ansikten som användes i kampanjer med koppling till Kina och Ryssland. I Kinas fall användes GAN-genererade bilder som profilbilder i en Facebook-kampanj, med falska konton som drev Pekingvänliga argument i ämnen som Taiwan, Sydkinesiska havet och Indonesien.

Däremot hade de ryska kampanjerna använt falska ansikten för att skapa personligheter för fiktiva redaktörer som stod bakom splittrande politiska nyhetsbyråer.

Giorgio Patrini, vd för Deepfake-detekteringsplattformen Sensity, sade att GAN-genererade ansikten också gjorde sitt intåg i företagsvärlden, med exempel som ett mjukvaruföretag som använde falska ansikten för kundvittnesmål och ett marknadsföringsföretag som använde tekniken för att generera foton av sitt “team”.

“Detta är faktiskt ett påhitt”

Det första steget för att bekämpa risken med GAN-genererade ansikten var att sprida medvetenhet om deras existens, sade Rizzuto. “När man väl berättar för dessa människor att det faktiskt är ett påhitt kan man se denna utvecklade känsla som alla människor har för att upptäcka abnormiteter i en bild.”

Trots de anmärkningsvärda framstegen bakom StyleGAN2 fanns det ett antal avslöjande tecken på en förfalskning, sade han – till exempel kan en persons huvud vara lutande medan näsan och tänderna är raka. Algoritmen kan också kämpa när den införlivar bakgrundsobjekt och andra människor, vilket ibland skapar oavsiktligt obehagliga glasögon.

En annan potentiell bortförklaring som Graphika noterade är att ögonen på de GAN-genererade ansiktena alla visas på samma ställe i bilden, oavsett vilket håll “subjektet” vänder sig åt.

Under tiden bygger och förbättrar forskare, myndigheter och teknikföretag modeller för att upptäcka falska ansikten. Lyu var en av författarna till en artikel om en sådan teknik, där man studerade bilderna av objekt som reflekteras i försökspersonernas ögon för att skilja riktiga ansikten från falska.

Fältet utvecklas hela tiden, sade Rizzuto och pekade på deepfake-forskningen från Samsung förra året, som förvandlade Mona Lisa till ett realistiskt talande huvud. Han sade att tekniken en dag skulle kunna användas för att skapa mer realistiska falska profiler, genom att skapa bilder med olika vinklar och uttryck.

“Den potentiella förmågan att bedra vägs upp av den arbetsinsats som skulle krävas för att genomföra det”, sade han. “Inom en snar framtid skulle jag förvänta mig att det … minskar avsevärt.”

Lämna ett svar

Din e-postadress kommer inte publiceras.