Nach Deepfakes eine neue Grenze der KI-Trickserei: falsche Gesichter

“Alfonzo Macias” sieht auf den ersten Blick unscheinbar aus – bärtig, bebrillt, mit einem kurzen Witwenschopf. Aber seine seltsam verzerrte Brille und der sich auflösende Hintergrund hinter ihm deuten auf eine unangenehme Wahrheit hin: Herr Macias hat nie existiert.

Mit bloßem Auge nicht zu erkennen, ist das unheimlich menschliche Gesicht in Wirklichkeit die Schöpfung eines Algorithmus – eines Algorithmus, der von dem Trump-freundlichen Medienunternehmen TheBL verwendet wird, um einem der vielen gefälschten Facebook-Konten eine Identität zu geben, die es benutzt, um Besucher auf seine Website zu leiten.

Auch wenn sie weniger aufsehenerregend sind als die viralen Deepfake-Videos, mit denen in den letzten Jahren die Reden und Handlungen von Politikern und Prominenten manipuliert wurden, werden statische, von künstlicher Intelligenz erzeugte Gesichter immer häufiger für Fehlinformationen eingesetzt, sagen Experten.

Anstatt echte Menschen so aussehen zu lassen, als würden sie Dinge sagen und tun, die sie nicht getan haben, funktioniert die Technik, indem sie völlig “neue” Menschen aus dem Nichts generiert.

Bereits wurden gefälschte Gesichter in Bot-Kampagnen aus China und Russland sowie in rechtsgerichteten Online-Medien und vermeintlich legitimen Unternehmen identifiziert. Ihre Verbreitung hat zu der Befürchtung geführt, dass die Technologie eine allgegenwärtigere und dringendere Bedrohung darstellen könnte als Deepfakes, da Online-Plattformen im Vorfeld der US-Wahlen mit einer steigenden Flut von Fehlinformationen zu kämpfen haben.

Der Bericht von Graphika und dem Digital Forensic Research Lab des Atlantic Council über gefälschte Identitäten zeigt verräterische Anzeichen, dass das Profilbild von Alfonzo Macias ein Deepfake ist
Der Bericht von Graphika und dem Digital Forensic Research Lab des Atlantic Council über gefälschte Identitäten, zeigt verräterische Anzeichen dafür, dass das Profilbild von Alfonzo Macias eine Fälschung ist

“Vor einem Jahr war dies eine Neuheit”, twitterte Ben Nimmo, Leiter der Abteilung für Untersuchungen bei der Social Media Intelligence-Gruppe Graphika. “

Das Rennen um die Gesichter

Wie die Deepfakes werden auch die von der KI erzeugten Gesichter mit Hilfe einer Technologie erstellt, die als GANs (generative adversarische Netzwerke) bekannt ist. Ein Netzwerk generiert Inhalte, während ein anderes sie mit menschlichen Gesichtern vergleicht und es zwingt, sich so lange zu verbessern, bis es das synthetische Bild nicht mehr von einem echten Gesicht unterscheiden kann.

Digitale Darstellungen fiktiver Menschen sind in den letzten Jahren online immer präsenter geworden, wobei Stars wie der virtuelle Popstar, das Model und die Aktivistin Miquela eine große Fangemeinde auf Instagram und Twitter haben. Was GAN-generierte Gesichter jedoch von anderen unterscheidet, ist ihr Fotorealismus – der Detailgrad, der den Figuren eine seltsame Lebendigkeit verleiht.

“Die neuesten GAN-Modelle können jetzt verwendet werden, um sehr realistische synthetische Bilder von menschlichen Gesichtern zu erstellen, bis hin zu den kleinsten Details – insbesondere Haut und Haare”, sagte Siwei Lyu, Professor für Informatik an der University at Albany, State University of New York.

ThisPersonDoesNotExist, eine Website, die jedes Mal, wenn sie aktualisiert wird, ein StyleGAN2-Gesicht erzeugt, zeigt, wie überzeugend solche Bilder sein können. Die Technik ist jedoch nicht auf menschliche Gesichter beschränkt, es gibt Dutzende von Varianten, die von Autos bis hin zu Katzen reichen.

Während sich die Besorgnis über KI-gestützte Fehlinformationen vor allem auf politische Deepfakes konzentrierte, gab es laut Henry Ajder, einem Forscher, der sich auf Deepfakes und synthetische Medien spezialisiert hat, noch keinen konkreten Fall. “

Es gab jedoch keine Fälle, in denen Trump mit dem roten Knopf für Atomwaffen herumgefuchtelt hat.

Allerdings sind seit Juni letzten Jahres Fälle von GAN-generierten falschen Gesichtern aufgetaucht, die zur Täuschung verwendet wurden, als die Associated Press ein Konto auf LinkedIn identifizierte, das sich als Mitarbeiter eines Think-Tanks ausgab.

Ein größerer Einsatz der Technik wurde erstmals im Dezember festgestellt, als Graphika und das Digital Forensic Research Lab des Atlantic Council einen Bericht über ein Netzwerk von über 900 Seiten, Gruppen und Konten veröffentlichten, die mit dem rechtsgerichteten Nachrichtenunternehmen Epoch Media Group verbunden waren. “Sie benutzten diese gefälschten Gesichter, um ihre Facebook-Präsenz zu verstärken und ihre Botschaften an ein breiteres Publikum zu übermitteln”, sagte Max Rizzuto, wissenschaftlicher Mitarbeiter am DFR Lab.

Eine Montage von Gesichtern, die von thispersondoesnotexist.com
Alle diese Gesichter wurden von thispersondoesnotexist.com generiert.

Auch Nationalstaaten haben das Potenzial der Technologie erkannt: Graphika entdeckte Dutzende von GAN-generierten Gesichtern, die in Kampagnen in Verbindung mit China und Russland verwendet wurden. Im Falle Chinas wurden GAN-generierte Bilder als Profilbilder in einer Facebook-Kampagne verwendet, wobei gefälschte Konten pro-britische Themen wie Taiwan, das Südchinesische Meer und Indonesien propagierten.

Im Gegensatz dazu wurden bei den russischen Kampagnen gefälschte Gesichter verwendet, um die Persönlichkeiten fiktiver Redakteure zu erstellen, die hinter zwiespältigen politischen Nachrichtensendern stehen.

Giorgio Patrini, Geschäftsführer der Deepfake-Erkennungsplattform Sensity, sagte, dass GAN-generierte Gesichter auch in der Unternehmenswelt auftauchen, so z. B. bei einem Softwareunternehmen, das gefälschte Gesichter für Kundenreferenzen verwendet, und bei einem Marketingunternehmen, das die Technologie zur Erstellung von Fotos seines “Teams” nutzt.

‘Das ist eigentlich eine Fälschung’

Der erste Schritt zur Bekämpfung des Risikos von GAN-generierten Gesichtern sei die Verbreitung des Bewusstseins über ihre Existenz, sagte Herr Rizzuto. “Wenn man den Leuten erst einmal sagt, dass es sich um eine Fälschung handelt, kann man sehen, dass alle Menschen einen ausgeprägten Sinn dafür haben, Abnormalitäten in einem Bild zu erkennen.”

Trotz des bemerkenswerten Fortschritts bei StyleGAN2 gebe es eine Reihe von Anzeichen für eine Fälschung, so Rizzuto – zum Beispiel könne der Kopf einer Person geneigt sein, während Nase und Zähne gerade blieben. Der Algorithmus kann auch Probleme haben, wenn er Hintergrundobjekte und andere Personen einbezieht, was manchmal unbeabsichtigt unangenehme Spektakel erzeugt.

Ein weiterer potenzieller Fehler, der von Graphika festgestellt wurde, ist, dass die Augen von GAN-generierten Gesichtern alle an der gleichen Stelle im Bild erscheinen, unabhängig davon, in welche Richtung das “Subjekt” blickt.

In der Zwischenzeit entwickeln und verbessern Forscher, Regierungsstellen und Technologieunternehmen Modelle zur Erkennung gefälschter Gesichter. Herr Lyu war einer der Autoren einer Arbeit über eine solche Technik, die die Bilder von Objekten untersuchte, die sich in den Augen von Personen spiegeln, um echte Gesichter von Fälschungen zu unterscheiden.

Das Feld entwickle sich ständig weiter, sagte Herr Rizzuto und verwies auf die Deepfake-Forschung von Samsung im vergangenen Jahr, die die Mona Lisa in einen realistischen sprechenden Kopf verwandelte. Er sagte, die Technologie könnte eines Tages dazu verwendet werden, realistischere gefälschte Profile zu erstellen und Bilder mit einer Vielzahl von Blickwinkeln und Ausdrücken zu erzeugen.

“Die potenzielle Fähigkeit zur Täuschung wird durch den Arbeitsaufwand, der nötig wäre, um dies zu bewerkstelligen, irgendwie aufgewogen”, sagte er. “Ich gehe davon aus, dass das in naher Zukunft erheblich abnehmen wird.”

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.