Na deepfakes, een nieuwe grens van AI-trucage: nepgezichten

“Alfonzo Macias” ziet er op het eerste gezicht onopvallend uit – bebaard, met een bespectacled, en een korte weduwepiek. Maar zijn vreemd vervormde bril en de oplossende achtergrond achter hem wijzen op een onaangename waarheid: de heer Macias heeft nooit bestaan.

Niet met het blote oog waarneembaar, is het griezelig menselijke gezicht in feite de creatie van een algoritme – een algoritme dat wordt gebruikt door het pro-Trump mediakanaal TheBL om een identiteit te geven aan een van de vele valse Facebook-accounts die het gebruikt om verkeer naar zijn website te leiden.

Hoewel minder aandachttrekkend dan de virale deepfake-video’s die de afgelopen jaren de spraak en acties van politici en beroemdheden hebben gemanipuleerd om populair effect te bereiken, worden statische kunstmatige intelligentie-gegenereerde gezichten een steeds vaker voorkomend hulpmiddel voor verkeerde informatie, zeggen experts.

In plaats van echte mensen dingen te laten zeggen en doen die ze niet hebben gedaan, werkt de techniek door geheel “nieuwe” mensen vanaf nul te genereren.

Nep-gezichten zijn al geïdentificeerd in bot-campagnes uit China en Rusland, evenals in rechtse online mediakanalen en zogenaamd legitieme bedrijven. Hun proliferatie heeft geleid tot bezorgdheid dat de technologie een alomtegenwoordiger en dringender bedreiging zou kunnen vormen dan deepfakes, nu online platforms worstelen met een stijgende vloed van verkeerde informatie in de aanloop naar de Amerikaanse verkiezingen.

Het rapport van Graphika en het Digital Forensic Research Lab van de Atlantische Raad over valse identiteiten laat zien dat de profielfoto van Alfonzo Macias een deepfake is
Het rapport van Graphika en het Digital Forensic Research Lab van de Atlantische Raad over valse identiteiten laat zien dat de profielfoto van Alfonzo Macias een deepfake is
Het rapport van Graphika en het Digital Forensic Research Lab van de Atlantische Raad over valse identiteiten, laat veelzeggende tekenen zien dat de profielfoto van Alfonzo Macias nep is

“Een jaar geleden was dit een noviteit,” twitterde Ben Nimmo, directeur van het onderzoeksbureau van de inlichtingengroep voor sociale media Graphika. “Nu voelt het alsof elke operatie die we analyseren dit minstens één keer probeert.”

De gezichtsrace

Net als deepfakes worden AI-gegenereerde gezichten gemaakt met behulp van een technologie die bekend staat als GAN’s, of generatieve adversariële netwerken. Het ene netwerk genereert inhoud, terwijl het andere het vergelijkt met menselijke gezichten en het dwingt tot verbetering totdat het de synthetische afbeelding niet meer van een echt gezicht kan onderscheiden.

Digitale weergaven van fictieve mensen zijn de afgelopen jaren online steeds vaker te zien, met sterren als de virtuele popster, model en activiste Miquela die enorme volgers op Instagram en Twitter trekken. Maar wat GAN-gegenereerde gezichten onderscheidt, is hun fotorealisme – het detailniveau dat een vreemde levensechtheid geeft aan de personages.

“De meest recente GAN-modellen kunnen nu worden gebruikt om zeer realistische synthetische beelden van menselijke gezichten te maken, tot in de minuscule details – in het bijzonder huid en haar,” zei Siwei Lyu, een professor in computerwetenschappen aan de Universiteit van Albany, State University of New York.

ThisPersonDoesNotExist, een website die elke keer dat hij wordt ververst een StyleGAN2-gezicht creëert, laat zien hoe overtuigend dergelijke afbeeldingen kunnen zijn. De techniek is echter niet beperkt tot menselijke gezichten, met tientallen varianten variërend van auto’s tot katten.

Terwijl de bezorgdheid over AI-aangedreven desinformatie zich grotendeels had geconcentreerd op politieke deepfakes, moest een substantiële zaak zich nog voordoen, zei Henry Ajder, een onderzoeker die is gespecialiseerd in deepfakes en synthetische media. “Er is nog geen Trump geweest die met de rode knop zwaaide.”

Er zijn echter gevallen opgedoken van door GAN gegenereerde nepgezichten die voor misleiding worden gebruikt sinds afgelopen juni, toen de Associated Press een account op LinkedIn identificeerde dat zich voordeed als een medewerker van een denktank.

Grootschaliger gebruik van de techniek werd voor het eerst geïdentificeerd in december, toen Graphika en het Digital Forensic Research Lab van de Atlantic Council een rapport uitbrachten over een netwerk van meer dan 900 pagina’s, groepen en accounts die waren gekoppeld aan de rechtse nieuwsuiting Epoch Media Group. “Ze gebruikten deze nepgezichten om hun aanwezigheid op Facebook te versterken en hun berichten aan een breder publiek over te brengen”, aldus Max Rizzuto, onderzoeksmedewerker bij het DFR Lab.

Een montage van gezichten gegenereerd door thispersondoesnotexist.com
Al deze gezichten zijn gegenereerd door thispersondoesnotexist.com.

Nationale staten hebben inmiddels ook het potentieel van de technologie ontdekt. Zo ontdekte Graphika tientallen door GAN gegenereerde gezichten die zijn gebruikt in campagnes in verband met China en Rusland. In het geval van China werden door GAN gegenereerde afbeeldingen gebruikt als profielfoto’s in een Facebook-campagne, waarbij nepaccounts pro-Beijing-praten over onderwerpen als Taiwan, de Zuid-Chinese Zee en Indonesië naar voren brachten.

In de Russische campagnes daarentegen werden nepgezichten gebruikt om de persona’s te creëren van fictieve redacteuren achter politieke nieuwskanalen die verdeeldheid zaaien.

Giorgio Patrini, chief executive van deepfake detectieplatform Sensity, zei dat GAN-gegenereerde gezichten ook hun opwachting maakten in de bedrijfswereld, met voorbeelden waaronder een softwarebedrijf dat nepgezichten gebruikte voor klantgetuigenissen en een marketingbedrijf dat de technologie gebruikte om foto’s van zijn “team” te genereren.

‘Dit is eigenlijk een verzinsel’

De eerste stap in de bestrijding van het risico van GAN-gegenereerde gezichten was het verspreiden van het bewustzijn van hun bestaan, zei de heer Rizzuto. “Zodra je deze mensen vertelt dat het eigenlijk een verzinsel is, zie je dit geëvolueerde gevoel dat alle mensen hebben om afwijkingen in een afbeelding te spotten.”

Ondanks de opmerkelijke vooruitgang achter StyleGAN2, waren er een aantal verraderlijke tekenen van een vervalsing, zei hij – bijvoorbeeld het hoofd van een onderwerp kan worden gekanteld terwijl hun neus en tanden recht blijven. Het algoritme kan ook moeite hebben met het opnemen van achtergrondobjecten en andere mensen, waardoor soms onbedoeld onaangename spektakels ontstaan.

Een ander potentieel weggevertje dat Graphika opmerkte, is dat de ogen van door GAN gegenereerde gezichten allemaal op dezelfde plaats in het beeld verschijnen, ongeacht in welke richting het “onderwerp” kijkt.

Tussen bouwen en verbeteren onderzoekers, overheidsinstanties en techbedrijven modellen om nepgezichten te detecteren. De heer Lyu was een van de auteurs van een paper over een dergelijke techniek, die de beelden van objecten bestudeerde die werden weerspiegeld in de ogen van proefpersonen om echte gezichten van nep te onderscheiden.

Het veld is voortdurend in ontwikkeling, zei de heer Rizzuto, wijzend op deepfake-onderzoek door Samsung vorig jaar, dat de Mona Lisa in een realistisch pratend hoofd veranderde. Hij zei dat de technologie op een dag zou kunnen worden toegepast om meer realistische nepprofielen te maken, waarbij foto’s met een verscheidenheid aan hoeken en uitdrukkingen worden gecreëerd.

“De potentiële capaciteit om te misleiden wordt soort van overtroffen door de hoeveelheid arbeid die nodig zou zijn om het uit te trekken ,” zei hij. “In de nabije toekomst verwacht ik dat dat aanzienlijk zal afnemen.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.