“Alfonzo Macias” näyttää ensisilmäyksellä mitättömältä – parrakas, silmälasipäinen, lyhyt leskenhuippu. Mutta hänen oudosti vääristyneet silmälasinsa ja hänen takanaan liukeneva tausta vihjaavat epämiellyttävään totuuteen: herra Maciasiaa ei ole koskaan ollut olemassa.
Paljain silmin havaitsemattomat, käsittämättömän inhimilliset kasvot ovat itse asiassa algoritmin luomus – algoritmin, jota Trump-myönteinen TheBL-medialähetys käyttää antaakseen henkilöllisyyden yhdelle lukuisista väärennetyistä Facebook-tileistä, joita se käyttää saadakseen kävijöitä sivustolleen.
Vaikka vähemmän huomiota herättävät kuin viraaliset deepfake-videot, joilla on viime vuosina manipuloitu poliitikkojen ja julkkisten puhetta ja tekoja suosiota herättävällä tavalla, staattiset tekoälyn luomat kasvot ovat asiantuntijoiden mukaan tulossa yhä yleisemmäksi väärän tiedon levittämisen välineeksi.
Sen sijaan, että todelliset ihmiset näyttäisivät sanovan ja tekevän asioita, joita he eivät ole sanoneet ja tehneet, tekniikka toimii luomalla täysin “uusia” ihmisiä tyhjästä.
Väärennettyjä kasvoja on jo tunnistettu kiinalaisissa ja venäläisissä bot-kampanjoissa sekä oikeistolaisissa verkkomedioissa ja muka laillisissa yrityksissä. Niiden yleistyminen on herättänyt huolta siitä, että teknologia saattaa olla yleisempi ja polttavampi uhka kuin deepfakes, kun verkkoalustat kamppailevat väärän tiedon lisääntyvän virran kanssa ennen Yhdysvaltain vaaleja.
“Vuosi sitten tämä oli uutuus”, twiittasi sosiaalisen median tiedusteluryhmän Graphikan tutkimusjohtaja Ben Nimmo. “Nyt tuntuu siltä, että jokainen analysoimamme operaatio kokeilee tätä ainakin kerran.”
Kasvokilpailu
Syväväärennösten tapaan tekoälyn luomat kasvot luodaan käyttämällä teknologiaa, jota kutsutaan GAN:iksi eli generatiivisiksi vastakkaisverkoiksi. Yksi verkko luo sisältöä, kun taas toinen vertaa sitä ihmiskasvoihin ja pakottaa sen parantamaan, kunnes se ei pysty erottamaan synteettistä kuvaa oikeista kasvoista.
Digitaaliset renderöinnit kuvitteellisista ihmisistä ovat kasvattaneet läsnäoloaan verkossa viime vuosina, ja virtuaalisen poptähden, mallin ja aktivistin Miquelan kaltaiset tähdet ovat keränneet valtavia seuraajia Instagramissa ja Twitterissä. GAN:illa luodut kasvot erottuvat kuitenkin toisistaan niiden fotorealismissa – yksityiskohtien tasossa, joka antaa hahmoille oudon elävyyden.
“Uusimpien GAN-mallien avulla voidaan nyt luoda erittäin realistisia synteettisiä kuvia ihmiskasvoista pienimpiä yksityiskohtia myöten – erityisesti ihoa ja hiuksia myöten”, sanoo New Yorkin osavaltionyliopiston Albany-yliopiston tietojenkäsittelytieteen professori Siwei Lyu.
ThisPersonDoesNotExist, verkkosivusto, joka luo StyleGAN2-kasvot joka kerta, kun se päivitetään, osoittaa, kuinka vakuuttavia tällaiset kuvat voivat olla. Tekniikka ei kuitenkaan rajoitu pelkästään ihmiskasvoihin, vaan siitä on kymmeniä muunnelmia autoista kissoihin.
Kun huoli tekoälyn avulla tuotetusta vääränlaisesta informaatiosta on keskittynyt pitkälti poliittisiin syväväärennöksiin, merkittävää tapausta ei ole vielä syntynyt, sanoi syväväärennöksiin ja synteettiseen mediaan erikoistunut tutkija Henry Ajder. “Ei ole ollut sellaista Trumpia, joka heiluttelisi ydinaseiden punaista nappia.”
Mutta tapauksia GAN:n luomista väärennetyistä kasvoista, joita on käytetty harhaanjohtamiseen, on esiintynyt viime kesäkuusta lähtien, jolloin Associated Press tunnisti LinkedInissä tilin, joka oli naamioitunut ajatushautomon työntekijäksi.
Tekniikan laajamittaisempi käyttö havaittiin ensimmäisen kerran joulukuussa, kun Graphika ja Atlantic Councilin Digital Forensic Research Lab julkaisivat raportin yli 900 sivusta, ryhmästä ja tilistä koostuvasta verkostosta, joka oli yhteydessä oikeistolaiseen uutistoimistoon Epoch Media Groupiin. “He käyttivät näitä väärennettyjä kasvoja vahvistaakseen Facebook-esiintymistään ja välittääkseen viestejään laajemmalle yleisölle”, sanoo Max Rizzuto, DFR-laboratorion tutkija Max Rizzuto.
Kansallisvaltiot ovat myös havainneet teknologian potentiaalin, ja Graphika löysi kymmeniä GAN-generaattuja kasvoja, joita on käytetty Kiinaan ja Venäjään liittyvissä kampanjoissa. Kiinan tapauksessa GAN-generaattoreita käytettiin profiilikuvina Facebook-kampanjassa, jossa väärennetyt tilit ajoivat Pekingiä tukevia puheita muun muassa Taiwanista, Etelä-Kiinan merestä ja Indonesiasta.
Venäjän kampanjoissa oli sitä vastoin käytetty väärennettyjä kasvoja luodakseen henkilöitä kuvitteellisille toimittajille, jotka olivat eripuraa herättäneiden poliittisten uutistoimistojen takana.
Sensityn deepfake-tunnistusalustan toimitusjohtaja Giorgio Patrini sanoi, että GAN:n luomat kasvot olivat ilmestymässä myös yritysmaailmaan, ja esimerkkeinä voidaan mainita eräs ohjelmistoyritys, joka käytti väärennettyjä kasvoja asiakastodistuksiin, ja eräs markkinointiyritys, joka käytti teknologiaa luodakseen kuvia “tiimistään”.
“Tämä on itse asiassa tekaistua”
Ensimmäinen askel GAN-generoiduista kasvoista aiheutuvan riskin torjumiseksi oli levittää tietoisuutta niiden olemassaolosta, Rizzuto sanoi. “Kun näille ihmisille kerrotaan, että kyseessä on itse asiassa sepustus, voidaan nähdä tämä kehittynyt aisti, joka kaikilla ihmisillä on havaita poikkeavuudet kuvassa.”
Huolimatta huomattavasta edistyksestä StyleGAN2:n takana, oli hänen mukaansa olemassa useita paljastavia merkkejä väärennöksestä – esimerkiksi kohteen pää saattoi olla kallellaan, kun taas hänen nenänsä ja hampaansa pysyivät suorina. Algoritmi voi myös kamppailla, kun se sisällyttää taustaesineitä ja muita ihmisiä, jolloin joskus syntyy tahattomasti epämiellyttäviä spektaakkeleita.
Toinen Graphikan havaitsema potentiaalinen juonenkäänne on se, että GANin luomien kasvojen silmät näkyvät kaikki samassa paikassa kuvassa riippumatta siitä, mihin suuntaan “kohde” katsoo.
Tutkijat, viranomaiset ja teknologiayritykset rakentavat ja parantavat malleja, joiden avulla voidaan havaita väärennetyt kasvot. Lyu oli mukana kirjoittamassa artikkelia eräästä tällaisesta tekniikasta, jossa tutkittiin koehenkilöiden silmistä heijastuvien esineiden kuvia, jotta todelliset kasvot voitaisiin erottaa väärennöksistä.
Ala kehittyy jatkuvasti, sanoi Rizzuto ja viittasi Samsungin viime vuonna tekemään deepfake-tutkimukseen, jossa Mona Lisasta tehtiin realistinen puhuva pää. Hän sanoi, että teknologiaa voitaisiin jonain päivänä soveltaa entistä realistisempien väärennettyjen profiilien luomiseen ja luoda kuvia, joissa on erilaisia kuvakulmia ja ilmeitä.
“Potentiaalinen kyky pettää on tavallaan suurempi kuin se työmäärä, joka tarvittaisiin sen toteuttamiseen”, hän sanoi. “Lähitulevaisuudessa odotan, että tämä . . . vähenee huomattavasti.”