“Alfonzo Macias” parece pouco notável à primeira vista – barbudo, bespectaculoso, com um curto pico de viúva. Mas os seus óculos estranhamente distorcidos e o fundo dissolvente atrás dele sugerem uma verdade desconfortável: o Sr. Macias nunca existiu.
Indetectável a olho nu, o rosto humano não é, de facto, a criação de um algoritmo – um algoritmo usado pelo TheBL pró-Trump media outlet para dar uma identidade a uma das muitas contas falsas do Facebook que usa para conduzir o tráfego para o seu site.
Embora menos chamativo do que os vídeos falsos e viris que manipularam o discurso e as ações de políticos e celebridades com efeito popular nos últimos anos, rostos estáticos gerados por inteligência artificial estão se tornando uma ferramenta cada vez mais comum para a desinformação, dizem os especialistas.
Em vez de fazer pessoas reais parecerem dizer e fazer coisas que não fizeram, a técnica funciona gerando pessoas inteiramente “novas” do zero.
Já foram identificados rostos falsos em campanhas de bot da China e da Rússia, bem como em meios de comunicação online de direita e em negócios supostamente legítimos. A sua proliferação tem levado à preocupação de que a tecnologia possa representar uma ameaça mais omnipresente e premente do que as falsificações profundas, à medida que as plataformas online lutam com uma maré crescente de desinformação antes das eleições nos EUA.
“Há um ano atrás, isto era uma novidade”, disse Ben Nimmo, diretor de investigações do grupo de inteligência de mídia social Graphika. “Agora parece que cada operação que analisamos tenta isto pelo menos uma vez”
A corrida de rostos
Como deepfakes, rostos gerados por IA são criados usando uma tecnologia conhecida como GANs, ou redes adversas generativas. Uma rede gera conteúdo, enquanto outra o compara a rostos humanos, forçando-o a melhorar até não conseguir distinguir a imagem sintética de um rosto real.
Renderizações digitais de humanos fictícios têm tido uma presença crescente online nos últimos anos, com estrelas como a popstar virtual, modelo e ativista Miquela desenhando em vastos seguimentos no Instagram e Twitter. Mas o que diferencia os rostos gerados por GAN é seu fotorealismo – o nível de detalhe que dá uma estranha vivacidade aos personagens.
“Os mais recentes modelos GAN podem agora ser usados para criar imagens sintéticas altamente realistas de rostos humanos, até os mínimos detalhes – em particular, peles e cabelos”, disse Siwei Lyu, professor de ciência da computação na Universidade de Albany, Universidade Estadual de Nova York.
ThisPersonDoesNotExist, um site que cria um rosto StyleGAN2 cada vez que ele é atualizado, demonstra o quão convincentes tais imagens podem ser. A técnica também não se limita a rostos humanos, porém, com dezenas de variantes que vão desde carros a gatos.
Embora as preocupações com a desinformação AI se tenham concentrado em grande parte em falsificações políticas profundas, um caso substancial ainda estava para se concretizar, disse Henry Ajder, um pesquisador especializado em falsificações profundas e mídia sintética. “Não tem havido o tipo de Trump a acenar com o botão vermelho nuclear”
No entanto, desde junho passado, quando a Associated Press identificou um relato no LinkedIn disfarçado de funcionário de um think-tank, têm aparecido casos de caras falsas geradas por GAN usadas para enganar.
O uso em maior escala da técnica foi identificado pela primeira vez em Dezembro, quando Graphika e o Laboratório de Investigação Forense Digital do Conselho Atlântico divulgaram um relatório sobre uma rede de mais de 900 páginas, grupos e contas ligadas ao grupo Epoch Media da direita. “Eles usaram estas caras falsas para reforçar sua presença no Facebook e entregar suas mensagens para um público mais amplo”, disse Max Rizzuto, associado de pesquisa no DFR Lab.
>
Os estados nacionais, por sua vez, também descobriram o potencial da tecnologia, com Graphika descobrindo dezenas de rostos gerados por GAN usados em campanhas ligadas à China e à Rússia. No caso da China, imagens geradas pelo GAN foram usadas como imagens de perfil em uma campanha do Facebook, com contas falsas empurrando pontos de conversa pró-Pequim sobre assuntos como Taiwan, Mar do Sul da China e Indonésia.
Por outro lado, as campanhas russas tinham usado rostos falsos para criar as personas de editores fictícios por trás de noticiários políticos divisivos.
Giorgio Patrini, chefe executivo da plataforma de detecção de falsificações Sensity, disse que os rostos gerados pela GAN também estavam fazendo uma aparição no mundo corporativo, com exemplos incluindo uma empresa de software que usava rostos falsos para depoimentos de clientes e uma empresa de marketing que usava a tecnologia para gerar fotos de sua “equipe”.
‘Isto é na verdade uma fabricação’
O primeiro passo para combater o risco de rostos gerados pela GAN foi espalhar a consciência da sua existência, disse o Sr. Rizzuto. “Quando você diz a essas pessoas que na verdade é uma fabricação, você pode ver essa sensação evoluída de que todos os humanos têm que detectar anormalidades em uma imagem.”
Apesar do notável progresso por detrás do StyleGAN2, havia uma série de sinais de uma falsificação, disse ele – por exemplo, a cabeça de um sujeito podia estar inclinada enquanto o nariz e os dentes permaneciam direitos. O algoritmo também pode lutar ao incorporar objetos de fundo e outras pessoas, às vezes criando espetáculos inadvertidamente desagradáveis.
Outro potencial de doação observado por Graphika é que os olhos dos rostos gerados pelo GAN aparecem todos no mesmo lugar dentro da imagem, independentemente da forma que o “sujeito” está enfrentando.
Por outro lado, pesquisadores, órgãos governamentais e empresas de tecnologia estão construindo e melhorando modelos para detectar rostos falsos. O Sr. Lyu foi um dos autores de um artigo sobre uma dessas técnicas, que estudou as imagens de objetos refletidas nos olhos dos sujeitos a fim de distinguir rostos reais de falsificações.
O campo estava em constante evolução, disse o Sr. Rizzuto, apontando para uma profunda pesquisa falsa da Samsung no ano passado, que transformou a Mona Lisa em uma cabeça falante realista. Ele disse que a tecnologia poderia um dia ser aplicada para criar perfis falsos mais realistas, criando imagens com uma variedade de ângulos e expressões.
“A capacidade potencial de enganar é meio que compensada pela quantidade de trabalho que levaria para consegui-lo”, disse ele. “Num futuro próximo, eu esperaria ver isso . . . diminuir consideravelmente”.