“Alfonzo Macías” tiene un aspecto poco llamativo a primera vista: barba, gafas y un corto pico de viuda. Pero sus gafas extrañamente distorsionadas y el fondo que se disuelve detrás de él insinúan una verdad incómoda: el Sr. Macías nunca existió.
Indetectable a simple vista, el rostro extrañamente humano es en realidad la creación de un algoritmo -uno utilizado por el medio de comunicación pro-Trump TheBL para dar una identidad a una de las muchas cuentas falsas de Facebook que utiliza para atraer tráfico a su sitio web.
Si bien llaman menos la atención que los videos virales de deepfake que han manipulado el discurso y las acciones de políticos y celebridades con efecto popular en los últimos años, las caras estáticas generadas por la inteligencia artificial se están convirtiendo en una herramienta cada vez más común para la desinformación, dicen los expertos.
En lugar de hacer que personas reales parezcan decir y hacer cosas que no han hecho, la técnica funciona generando personas totalmente “nuevas” desde cero.
Ya se han identificado rostros falsos en campañas de bots de China y Rusia, así como en medios de comunicación online de derechas y empresas supuestamente legítimas. Su proliferación ha suscitado la preocupación de que esta tecnología pueda representar una amenaza más omnipresente y acuciante que los deepfakes, ya que las plataformas en línea se enfrentan a una creciente marea de desinformación antes de las elecciones estadounidenses.
“Hace un año, esto era una novedad”, tuiteó Ben Nimmo, director de investigaciones del grupo de inteligencia de medios sociales Graphika. “Ahora parece que todas las operaciones que analizamos lo intentan al menos una vez”.
La carrera de las caras
Al igual que los deepfakes, las caras generadas por la IA se crean utilizando una tecnología conocida como GANs, o redes generativas adversariales. Una red genera el contenido, mientras que otra lo compara con rostros humanos, obligándola a mejorar hasta que no pueda distinguir la imagen sintética de un rostro real.
Las representaciones digitales de seres humanos ficticios han tenido una presencia creciente en Internet en los últimos años, con estrellas como la estrella del pop, modelo y activista virtual Miquela, que atrae a un gran número de seguidores en Instagram y Twitter. Pero lo que distingue a los rostros generados por GAN es su fotorrealismo, es decir, el nivel de detalle que confiere a los personajes una extraña apariencia de vida.
“Los modelos GAN más recientes pueden utilizarse ahora para crear imágenes sintéticas muy realistas de rostros humanos, hasta los detalles más minúsculos, en particular, la piel y el pelo”, afirma Siwei Lyu, profesor de informática de la Universidad de Albany, en el Estado de Nueva York.
ThisPersonDoesNotExist, un sitio web que crea un rostro StyleGAN2 cada vez que se actualiza, demuestra lo convincentes que pueden ser estas imágenes. Sin embargo, la técnica no se limita a los rostros humanos, con docenas de variantes que van desde coches hasta gatos.
Mientras que la preocupación por la desinformación impulsada por la IA se había centrado en gran medida en los deepfakes políticos, todavía no se había materializado un caso sustancial, dijo Henry Ajder, un investigador especializado en deepfakes y medios sintéticos. “No ha habido el tipo de Trump agitando el botón rojo nuclear”.
Sin embargo, los casos de caras falsas generadas por GAN y utilizadas para el engaño han ido apareciendo desde el pasado mes de junio, cuando Associated Press identificó una cuenta en LinkedIn que se hacía pasar por un empleado de un centro de estudios.
El uso a mayor escala de la técnica se identificó por primera vez en diciembre, cuando Graphika y el Laboratorio de Investigación Forense Digital del Atlantic Council publicaron un informe sobre una red de más de 900 páginas, grupos y cuentas vinculadas al medio de comunicación de derechas Epoch Media Group. “Utilizaban estas caras falsas para reforzar su presencia en Facebook y hacer llegar sus mensajes a un público más amplio”, dijo Max Rizzuto, investigador asociado del DFR Lab.
Mientras tanto, los estados nacionales también han descubierto el potencial de la tecnología, con Graphika descubriendo docenas de rostros generados por GAN utilizados en campañas vinculadas a China y Rusia. En el caso de China, las imágenes generadas por GAN se utilizaron como fotos de perfil en una campaña de Facebook, con cuentas falsas que promovían argumentos a favor de Pekín sobre temas como Taiwán, el Mar de la China Meridional e Indonesia.
Por el contrario, las campañas rusas habían utilizado rostros falsos para crear los personajes de editores ficticios detrás de medios de comunicación políticos divisivos.
Giorgio Patrini, director ejecutivo de la plataforma de detección de deepfakes Sensity, dijo que las caras generadas por GAN también estaban haciendo su aparición en el mundo corporativo, con ejemplos como una empresa de software que utilizó caras falsas para los testimonios de los clientes y una empresa de marketing que utilizó la tecnología para generar fotos de su “equipo”.
“En realidad se trata de una invención”
El primer paso para combatir el riesgo de los rostros generados por GAN fue la difusión de su existencia, dijo el Sr. Rizzuto. “Una vez que se le dice a esta gente que en realidad es una invención, se puede ver este sentido evolucionado que todos los humanos tienen para detectar anormalidades en una imagen”.
A pesar de los notables avances de StyleGAN2, hay una serie de signos reveladores de una falsificación, dijo: por ejemplo, la cabeza de un sujeto puede estar inclinada mientras su nariz y sus dientes permanecen rectos. El algoritmo también puede tener problemas a la hora de incorporar objetos de fondo y otras personas, creando a veces espectáculos inadvertidamente desagradables.
Otro posible obstáculo señalado por Graphika es que los ojos de los rostros generados por GAN aparecen todos en el mismo lugar dentro de la imagen, independientemente de la dirección a la que mire el “sujeto”.
Mientras tanto, investigadores, organismos gubernamentales y empresas tecnológicas están construyendo y mejorando modelos para detectar rostros falsos. El Sr. Lyu fue uno de los autores de un artículo sobre una de estas técnicas, que estudiaba las imágenes de los objetos reflejados en los ojos de los sujetos para distinguir las caras reales de las falsas.
El campo está en constante evolución, dijo el Sr. Rizzuto, señalando la investigación sobre deepfake realizada por Samsung el año pasado, que convirtió la Mona Lisa en una cabeza parlante realista. Dijo que la tecnología podría aplicarse algún día para crear perfiles falsos más realistas, creando imágenes con una variedad de ángulos y expresiones.
“La capacidad potencial de engañar se ve superada por la cantidad de trabajo que se necesitaría para lograrlo”, dijo. “En un futuro próximo, espero que eso… disminuya considerablemente”.