“Alfonzo Macias” a l’air banal au premier abord – barbu, à lunettes, avec une courte crête de veuve. Mais ses lunettes étrangement déformées et l’arrière-plan qui se dissout derrière lui laissent entrevoir une vérité gênante : M. Macias n’a jamais existé.
Indétectable à l’œil nu, le visage étrangement humain est en fait la création d’un algorithme – un algorithme utilisé par le média pro-Trump TheBL pour donner une identité à l’un des nombreux faux comptes Facebook qu’il utilise pour attirer du trafic sur son site Web.
Bien qu’ils attirent moins l’attention que les vidéos virales deepfake qui ont manipulé le discours et les actions des politiciens et des célébrités à des fins populaires ces dernières années, les visages statiques générés par l’intelligence artificielle deviennent un outil de plus en plus commun pour la désinformation, selon les experts.
Au lieu de faire apparaître des personnes réelles qui disent et font des choses qu’elles n’ont pas faites, la technique fonctionne en générant des personnes entièrement “nouvelles” à partir de zéro.
D’ores et déjà, des faux visages ont été identifiés dans des campagnes de robots chinois et russes, ainsi que dans des médias en ligne de droite et des entreprises prétendument légitimes. Leur prolifération a suscité des inquiétudes quant au fait que cette technologie pourrait représenter une menace plus omniprésente et plus pressante que les deepfakes, alors que les plateformes en ligne sont aux prises avec une marée montante de désinformation à l’approche des élections américaines.
“Il y a un an, c’était une nouveauté”, a tweeté Ben Nimmo, directeur des enquêtes du groupe de renseignement sur les médias sociaux Graphika. “Maintenant, on a l’impression que chaque opération que nous analysons essaie cela au moins une fois.”
La course aux visages
Comme les deepfakes, les visages générés par l’IA sont créés à l’aide d’une technologie connue sous le nom de GAN, ou réseaux adversaires génératifs. Un réseau génère du contenu, tandis qu’un autre le compare à des visages humains, le forçant à s’améliorer jusqu’à ce qu’il ne puisse plus distinguer l’image synthétique d’un vrai visage.
Les rendus numériques d’humains fictifs ont eu une présence croissante en ligne ces dernières années, avec des stars telles que la popstar virtuelle, le modèle et l’activiste Miquela attirant de vastes followings sur Instagram et Twitter. Mais ce qui distingue les visages générés par le GAN, c’est leur photoréalisme – le niveau de détail qui donne un étrange air de vie aux personnages.
“Les modèles GAN les plus récents peuvent maintenant être utilisés pour créer des images synthétiques très réalistes de visages humains, jusqu’aux détails les plus minuscules – en particulier, les peaux et les cheveux”, a déclaré Siwei Lyu, professeur en informatique à l’Université d’Albany, Université d’État de New York.
ThisPersonDoesNotExist, un site web qui crée un visage StyleGAN2 à chaque fois qu’il est rafraîchi, démontre à quel point de telles images peuvent être convaincantes. La technique ne se limite pas non plus aux visages humains, cependant, avec des dizaines de variantes allant des voitures aux chats.
Alors que les préoccupations concernant la désinformation alimentée par l’IA s’étaient largement concentrées sur les deepfakes politiques, un cas substantiel devait encore se matérialiser, a déclaré Henry Ajder, un chercheur spécialisé dans les deepfakes et les médias synthétiques. “Il n’y a pas eu le genre de Trump qui agite le bouton rouge nucléaire”.
Cependant, des cas de faux visages générés par GAN utilisés à des fins de tromperie sont apparus depuis juin dernier, lorsque l’Associated Press a identifié un compte sur LinkedIn se faisant passer pour un employé d’un groupe de réflexion.
Par ailleurs, les États-nations ont également repéré le potentiel de la technologie, Graphika ayant découvert des dizaines de visages générés par le GAN utilisés dans des campagnes liées à la Chine et à la Russie. Dans le cas de la Chine, les images générées par le GAN ont été utilisées comme photos de profil dans une campagne Facebook, avec de faux comptes poussant des points de discussion pro-Pékin sur des sujets tels que Taïwan, la mer de Chine méridionale et l’Indonésie.
En revanche, les campagnes russes avaient utilisé de faux visages pour créer les personnages de rédacteurs fictifs derrière des organes de presse politiques divisés.
Giorgio Patrini, directeur général de la plateforme de détection de deepfake Sensity, a déclaré que les visages générés par GAN faisaient également leur apparition dans le monde de l’entreprise, avec des exemples comprenant une société de logiciels qui utilisait de faux visages pour des témoignages de clients et une société de marketing qui utilisait la technologie pour générer des photos de son “équipe”.
‘Il s’agit en fait d’une fabrication’
La première étape pour combattre le risque des visages générés par le GAN était de faire connaître leur existence, a déclaré M. Rizzuto. “Une fois que vous dites à ces gens que c’est en fait une fabrication, vous pouvez voir ce sens évolué que tous les humains ont pour repérer les anomalies dans une image.”
Malgré les progrès remarquables derrière StyleGAN2, il existe un certain nombre de signes révélateurs d’un faux, a-t-il dit – par exemple, la tête d’un sujet peut être inclinée alors que son nez et ses dents restent droits. L’algorithme peut également avoir du mal à incorporer des objets en arrière-plan et d’autres personnes, créant parfois par inadvertance des spectacles désagréables.
Un autre piège potentiel relevé par Graphika est que les yeux des visages générés par le GAN apparaissent tous au même endroit dans l’image, quelle que soit la façon dont le “sujet” est tourné.
En attendant, les chercheurs, les organismes gouvernementaux et les entreprises technologiques construisent et améliorent des modèles pour détecter les faux visages. M. Lyu était l’un des auteurs d’un article sur l’une de ces techniques, qui étudiait les images d’objets reflétées dans les yeux des sujets afin de distinguer les vrais visages des faux.
Le domaine est en constante évolution, a déclaré M. Rizzuto, soulignant la recherche sur les faux visages par Samsung l’année dernière, qui a transformé la Joconde en une tête parlante réaliste. Il a déclaré que la technologie pourrait un jour être appliquée pour créer des faux profils plus réalistes, en créant des photos avec une variété d’angles et d’expressions.
“La capacité potentielle de tromperie est en quelque sorte contrebalancée par la quantité de travail qu’il faudrait pour la réaliser”, a-t-il déclaré. “Dans un avenir proche, je m’attendrais à voir cette capacité diminuer considérablement.