După deepfakes, o nouă frontieră a înșelăciunilor AI: fețele false

“Alfonzo Macias” pare banal la prima vedere – cu barbă, cu ochelari de soare, cu un vârf de văduvă scurt. Dar ochelarii săi ciudat de distorsionați și fundalul care se dizolvă în spatele său sugerează un adevăr inconfortabil: domnul Macias nu a existat niciodată.

Nu poate fi detectat cu ochiul liber, chipul neobișnuit de uman este, de fapt, creația unui algoritm – unul folosit de către mass-media pro-Trump TheBL pentru a da o identitate unuia dintre multele conturi false de Facebook pe care le folosește pentru a atrage trafic pe site-ul său.

Chiar dacă atrag mai puțin atenția decât videoclipurile virale deepfake care au manipulat discursul și acțiunile politicienilor și ale celebrităților pentru a obține un efect popular în ultimii ani, fețele statice generate de inteligența artificială devin un instrument din ce în ce mai frecvent pentru dezinformare, spun experții.

În loc să facă să pară că persoane reale spun și fac lucruri pe care nu le-au spus și nu le-au făcut, tehnica funcționează prin generarea de persoane complet “noi” de la zero.

Acum, fețele false au fost deja identificate în campanii bot din China și Rusia, precum și în mass-media online de dreapta și în întreprinderi pretins legitime. Proliferarea lor a dus la îngrijorarea că tehnologia ar putea reprezenta o amenințare mai omniprezentă și mai presantă decât deepfakes, în timp ce platformele online se luptă cu un val tot mai mare de dezinformare înainte de alegerile din SUA.

Raportul Graphika și al Digital Forensic Research Lab al Atlantic Council's Digital Forensic Research Lab privind identitățile false, care arată semnele revelatoare că imaginea de profil a lui Alfonzo Macias este un deepfake
Raportul Graphika și al Digital Forensic Research Lab al Atlantic Council’s Digital Forensic Research Lab privind identitățile false, care arată semne evidente că imaginea de profil pentru Alfonzo Macias este un fals

“În urmă cu un an, aceasta era o noutate”, a scris pe Twitter Ben Nimmo, director de investigații la grupul de informații din social media Graphika. “Acum se pare că fiecare operațiune pe care o analizăm încearcă acest lucru cel puțin o dată.”

Cursa fețelor

Ca și deepfakes, fețele generate de inteligența artificială sunt create cu ajutorul unei tehnologii cunoscute sub numele de GAN, sau rețele generative adversariale. O rețea generează conținut, în timp ce o alta îl compară cu fețele umane, forțând-o să se îmbunătățească până când nu mai poate distinge imaginea sintetică de o față reală.

Reprezentările digitale ale oamenilor fictivi au avut o prezență din ce în ce mai mare pe internet în ultimii ani, cu vedete precum vedeta pop virtuală, modelul și activistul Miquela atrăgând adepți uriași pe Instagram și Twitter. Dar ceea ce diferențiază fețele generate de GAN este fotorealismul lor – nivelul de detaliu care conferă o stranie naturalețe personajelor.

“Cele mai recente modele GAN pot fi folosite acum pentru a crea imagini sintetice extrem de realiste ale fețelor umane, până la detalii minuscule – în special, pielea și părul”, a declarat Siwei Lyu, profesor de informatică la Universitatea din Albany, Universitatea de Stat din New York.

ThisPersonDoesNotExist, un site web care creează o față StyleGAN2 de fiecare dată când este reîmprospătat, demonstrează cât de convingătoare pot fi astfel de imagini. Cu toate acestea, tehnica nu se limitează nici la fețele umane, existând zeci de variante, de la mașini la pisici.

În timp ce preocupările legate de dezinformarea alimentată de inteligența artificială s-au concentrat în mare parte pe deepfakes politice, un caz substanțial nu s-a materializat încă, a declarat Henry Ajder, un cercetător specializat în deepfakes și media sintetică. “Nu a existat genul de Trump care să agite butonul roșu nuclear.”

Cu toate acestea, cazuri de fețe false generate de GAN folosite pentru înșelăciune au apărut încă din iunie anul trecut, când Associated Press a identificat un cont pe LinkedIn care se dădea drept angajat al unui think-tank.

Utilizarea la scară mai mare a tehnicii a fost identificată pentru prima dată în decembrie, când Graphika și Laboratorul de cercetare criminalistică digitală al Atlantic Council au publicat un raport privind o rețea de peste 900 de pagini, grupuri și conturi legate de publicația de știri de dreapta Epoch Media Group. “Ei au folosit aceste fețe false pentru a-și consolida prezența pe Facebook și pentru a-și transmite mesajele către un public mai larg”, a declarat Max Rizzuto, cercetător asociat la DFR Lab.

Un montaj de fețe generate de thispersondoesnotexist.com
Toate aceste fețe au fost generate de thispersondoesnotexist.com.

Între timp, statele naționale au observat, de asemenea, potențialul acestei tehnologii, Graphika descoperind zeci de fețe generate de GAN folosite în campanii legate de China și Rusia. În cazul Chinei, imaginile generate de GAN au fost folosite ca imagini de profil într-o campanie pe Facebook, conturile false promovând puncte de discuție pro-Beijing pe subiecte precum Taiwan, Marea Chinei de Sud și Indonezia.

În schimb, campaniile din Rusia au folosit fețe false pentru a crea personalitățile unor editori fictivi din spatele unor instituții de știri politice care au provocat dezbinare.

Giorgio Patrini, directorul executiv al platformei de detectare deepfake Sensity, a declarat că fețele generate de GAN își fac apariția și în lumea corporatistă, cu exemple care includ o companie de software care a folosit fețe false pentru mărturiile clienților și o companie de marketing care a folosit tehnologia pentru a genera fotografii ale “echipei” sale.

“Aceasta este, de fapt, o invenție”

Primul pas pentru combaterea riscului fețelor generate de GAN a fost răspândirea conștientizării existenței acestora, a declarat dl Rizzuto. “Odată ce le spui acestor oameni că este de fapt o invenție, poți vedea acest simț evoluat pe care toți oamenii îl au pentru a detecta anomalii într-o imagine.”

În ciuda progresului remarcabil din spatele StyleGAN2, au existat o serie de semne revelatoare ale unui fals, a spus el – de exemplu, capul unui subiect ar putea fi înclinat, în timp ce nasul și dinții au rămas drepți. Algoritmul se poate lupta, de asemenea, atunci când încorporează obiecte de fundal și alte persoane, creând uneori, din neatenție, spectacole neplăcute.

Un alt potențial indiciu observat de Graphika este faptul că ochii fețelor generate de GAN apar toți în același loc în cadrul imaginii, indiferent de direcția în care este orientat “subiectul”.

Între timp, cercetătorii, organismele guvernamentale și companiile de tehnologie construiesc și îmbunătățesc modelele de detectare a fețelor false. Dl Lyu s-a numărat printre autorii unei lucrări despre o astfel de tehnică, care a studiat imaginile obiectelor reflectate în ochii subiecților pentru a distinge fețele reale de cele false.

Domeniul este în continuă evoluție, a declarat dl Rizzuto, menționând cercetările deepfake efectuate anul trecut de Samsung, care a transformat Mona Lisa într-un cap vorbitor realist. El a spus că tehnologia ar putea fi aplicată într-o zi pentru a crea profiluri false mai realiste, creând fotografii cu o varietate de unghiuri și expresii.

“Capacitatea potențială de a înșela este oarecum depășită de cantitatea de muncă care ar fi necesară pentru a o realiza”, a spus el. “În viitorul apropiat, m-aș aștepta să văd că … diminuează considerabil.”

.

Lasă un răspuns

Adresa ta de email nu va fi publicată.