“Alfonzo Macias” sembra irrilevante a prima vista – barbuto, occhialuto, con un corto picco vedovile. Ma i suoi occhiali stranamente distorti e lo sfondo che si dissolve dietro di lui suggeriscono una sconfortante verità: il signor Macias non è mai esistito.
Individuabile a occhio nudo, il volto inquietantemente umano è in realtà la creazione di un algoritmo – uno usato dalla presa di media pro-Trump TheBL per dare un’identità a uno dei tanti falsi account Facebook che usa per guidare il traffico verso il suo sito web.
Anche se attira meno l’attenzione rispetto ai video deepfake virali che hanno manipolato il discorso e le azioni di politici e celebrità ad effetto popolare negli ultimi anni, i volti statici generati dall’intelligenza artificiale stanno diventando uno strumento sempre più comune per la disinformazione, dicono gli esperti.
Invece di far sembrare che le persone reali dicano e facciano cose che non hanno fatto, la tecnica funziona generando persone completamente “nuove” da zero.
Già, i volti falsi sono stati identificati in campagne bot dalla Cina e dalla Russia, così come nei media online di destra e nelle imprese apparentemente legittime. La loro proliferazione ha portato alla preoccupazione che la tecnologia potrebbe rappresentare una minaccia più onnipresente e pressante dei deepfakes, mentre le piattaforme online sono alle prese con una marea crescente di disinformazione in vista delle elezioni americane.
“Un anno fa, questa era una novità”, ha twittato Ben Nimmo, direttore delle indagini del gruppo di social media intelligence Graphika. “Ora sembra che ogni operazione che analizziamo ci provi almeno una volta.”
La corsa al volto
Come i deepfake, i volti generati dall’AI sono creati utilizzando una tecnologia nota come GAN, o reti generative avversarie. Una rete genera il contenuto, mentre un’altra lo confronta con i volti umani, costringendola a migliorare fino a quando non riesce a distinguere l’immagine sintetica da un volto reale.
I rendering digitali di esseri umani fittizi hanno avuto una crescente presenza online negli ultimi anni, con stelle come la popstar virtuale, modella e attivista Miquela che attira un vasto seguito su Instagram e Twitter. Ma ciò che distingue i volti generati da GAN è il loro fotorealismo – il livello di dettaglio che dà una strana verosimiglianza ai personaggi.
“I modelli GAN più recenti possono ora essere utilizzati per creare immagini sintetiche altamente realistiche di volti umani, fino ai dettagli minuscoli – in particolare, pelli e capelli”, ha detto Siwei Lyu, un professore di informatica presso l’Università di Albany, State University of New York.
ThisPersonDoesNotExist, un sito web che crea un volto StyleGAN2 ogni volta che viene aggiornato, dimostra quanto convincenti possano essere tali immagini. La tecnica non è limitata ai volti umani, tuttavia, con decine di varianti che vanno dalle automobili ai gatti.
Mentre le preoccupazioni sulla disinformazione alimentata dall’AI si sono concentrate in gran parte sui deepfakes politici, un caso sostanziale deve ancora materializzarsi, ha detto Henry Ajder, un ricercatore specializzato in deepfakes e media sintetici. “Non c’è stato il tipo di Trump che agita il bottone rosso nucleare”.
Tuttavia, casi di volti falsi generati da GAN e usati per ingannare sono apparsi dallo scorso giugno, quando l’Associated Press ha identificato un account su LinkedIn mascherato da dipendente di un think-tank.
L’uso su larga scala della tecnica è stato identificato per la prima volta a dicembre, quando Graphika e il Digital Forensic Research Lab dell’Atlantic Council hanno pubblicato un rapporto su una rete di oltre 900 pagine, gruppi e account collegati all’emittente di destra Epoch Media Group. “Hanno usato queste facce false per rafforzare la loro presenza su Facebook e trasmettere i loro messaggi a un pubblico più ampio”, ha detto Max Rizzuto, ricercatore associato al DFR Lab.
Anche gli stati nazionali hanno individuato il potenziale della tecnologia, con Graphika che ha scoperto decine di volti generati da GAN utilizzati in campagne legate a Cina e Russia. Nel caso della Cina, le immagini generate da GAN sono state utilizzate come immagini di profilo in una campagna di Facebook, con account falsi che spingevano i punti di vista pro-Pechino su argomenti come Taiwan, il Mar Cinese Meridionale e l’Indonesia.
Al contrario, le campagne russe hanno utilizzato volti falsi per creare i personaggi di redattori fittizi dietro le notizie politiche divise.
Giorgio Patrini, amministratore delegato della piattaforma di rilevamento deepfake Sensity, ha detto che i volti generati da GAN stavano facendo la loro comparsa anche nel mondo aziendale, con esempi tra cui una società di software che ha utilizzato volti falsi per le testimonianze dei clienti e una società di marketing che ha utilizzato la tecnologia per generare foto del suo “team”.
“Questa è in realtà una montatura”
Il primo passo per combattere il rischio dei volti generati dal GAN era diffondere la consapevolezza della loro esistenza, ha detto il signor Rizzuto. “Una volta che si dice a queste persone che si tratta in realtà di una montatura, si può vedere questo senso evoluto che tutti gli esseri umani hanno per individuare le anomalie in un’immagine”.
Nonostante i notevoli progressi di StyleGAN2, ci sono una serie di segni rivelatori di un falso, ha detto – per esempio la testa di un soggetto potrebbe essere inclinata mentre il naso e i denti rimangono dritti. L’algoritmo può anche lottare quando incorpora oggetti di sfondo e altre persone, a volte creando inavvertitamente spettacoli sgradevoli.
Un altro potenziale giveaway notato da Graphika è che gli occhi dei volti generati da GAN appaiono tutti nello stesso posto all’interno dell’immagine, indipendentemente dal modo in cui il “soggetto” è rivolto.
Nel frattempo ricercatori, enti governativi e aziende tecnologiche stanno costruendo e migliorando modelli per rilevare i volti falsi. Il signor Lyu è stato tra gli autori di un documento su una di queste tecniche, che ha studiato le immagini degli oggetti riflessi negli occhi dei soggetti al fine di distinguere i volti reali dai falsi.
Il campo è in continua evoluzione, ha detto il signor Rizzuto, indicando la ricerca deepfake di Samsung dello scorso anno che ha trasformato la Monna Lisa in una testa parlante realistica. Ha detto che la tecnologia potrebbe un giorno essere applicata per creare profili falsi più realistici, creando immagini con una varietà di angoli ed espressioni.
“La capacità potenziale di ingannare è un po’ superata dalla quantità di lavoro che ci vorrebbe per tirarlo fuori”, ha detto. “Nel prossimo futuro, mi aspetterei di vedere questo… diminuire considerevolmente.”
.