A deepfakes után a mesterséges intelligenciával való trükközés új határa: a hamis arcok

“Alfonzo Macias” első pillantásra nem tűnik feltűnőnek – szakállas, szemüveges, rövid özvegycsúcsú. De furcsán eltorzult szemüvege és a mögötte feloldódó háttér egy kellemetlen igazságra utal: Macias úr soha nem is létezett.

A szabad szemmel nem észrevehető, kísértetiesen emberi arc valójában egy algoritmus alkotása – a TheBL Trump-párti médiaszervezet használta arra, hogy személyazonosságot adjon a sok hamis Facebook-fiók egyikének, amelyet arra használ, hogy forgalmat generáljon a weboldalára.

Bár kevésbé figyelemfelkeltő, mint a vírusszerűen terjedő deepfake-videók, amelyek az elmúlt években politikusok és hírességek beszédét és cselekedeteit manipulálták a népszerűség érdekében, a szakértők szerint a statikus, mesterséges intelligenciával generált arcok egyre gyakoribb eszközeivé válnak a félretájékoztatásnak.

Ahelyett, hogy valódi embereket állítanának be, akik olyasmit mondanak és tesznek, amit nem mondtak, a technika úgy működik, hogy teljesen “új” embereket generálnak a semmiből.

Már eddig is azonosítottak hamis arcokat kínai és oroszországi botkampányokban, valamint jobboldali online médiumokban és állítólag törvényes vállalkozásokban. Elterjedésük aggodalomra ad okot, hogy a technológia mindenütt jelenlévő és sürgetőbb fenyegetést jelenthet, mint a deepfakes, mivel az online platformok az amerikai választások előtt a félretájékoztatás növekvő áradatával küzdenek.

A Graphika és az Atlantic Council digitális törvényszéki kutatólaboratóriumának jelentése a hamis személyazonosságokról, amely árulkodó jeleket mutat arra, hogy Alfonzo Macias profilképe egy deepfake
A Graphika és az Atlantic Council digitális törvényszéki kutatólaboratóriumának jelentése a hamis személyazonosságokról, árulkodó jeleket mutat arra, hogy Alfonzo Macias profilképe hamisítvány

“Egy évvel ezelőtt ez még újdonságnak számított” – tweetelte Ben Nimmo, a Graphika közösségi média hírszerző csoport vizsgálati igazgatója. “Most úgy tűnik, hogy minden általunk elemzett művelet legalább egyszer megpróbálkozik ezzel.”

Az arcverseny

A mélyhamisításokhoz hasonlóan az AI által generált arcokat is a GAN-ok, vagyis a generatív adverzális hálózatok néven ismert technológia segítségével hozzák létre. Az egyik hálózat tartalmat generál, míg egy másik összehasonlítja azt az emberi arcokkal, és addig kényszeríti a fejlesztésre, amíg nem tudja megkülönböztetni a szintetikus képet egy valódi arctól.

A fiktív emberek digitális ábrázolásai az elmúlt években egyre nagyobb teret nyertek az interneten, és az olyan sztárok, mint a virtuális popsztár, modell és aktivista Miquela hatalmas követőket vonzottak az Instagramon és a Twitteren. Ami azonban a GAN által generált arcokat megkülönbözteti a többitől, az a fotórealizmus – a részletesség szintje, amely különös életszerűséget kölcsönöz a karaktereknek.

“A legújabb GAN-modellekkel ma már nagyon valósághű szintetikus képeket lehet készíteni emberi arcokról, egészen a legapróbb részletekig – különösen a bőr és a haj -” – mondta Siwei Lyu, a New York Állami Egyetem Albany-i Egyetemének informatika professzora.

AThisPersonDoesNotExist, egy olyan weboldal, amely minden egyes frissítéskor egy StyleGAN2 arcot hoz létre, bemutatja, mennyire meggyőzőek lehetnek az ilyen képek. A technika azonban nem korlátozódik az emberi arcokra, több tucatnyi változata létezik az autóktól a macskákig.

Míg a mesterséges intelligencia által vezérelt félretájékoztatással kapcsolatos aggodalmak nagyrészt a politikai mélyhamisításokra összpontosítottak, egy érdemi ügy még nem merült fel – mondta Henry Ajder, a mélyhamisításokra és a szintetikus médiára szakosodott kutató. “Nem volt még olyan, hogy Trump a nukleáris vörös gombbal hadonászott volna.”

Márpedig a GAN által generált, megtévesztésre használt hamis arcok esetei már tavaly június óta megjelentek, amikor az Associated Press azonosított egy fiókot a LinkedIn-en, amely egy agytröszt munkatársának adta ki magát.

A technika szélesebb körű alkalmazását először decemberben azonosították, amikor a Graphika és az Atlantic Council Digitális Törvényszéki Kutató Laboratóriuma jelentést tett közzé egy több mint 900 oldalból, csoportból és fiókból álló hálózatról, amely az Epoch Media Group nevű jobboldali hírportálhoz kapcsolódik. “Ezeket a hamis arcokat arra használták, hogy megerősítsék Facebook-jelenlétüket, és üzeneteiket szélesebb közönséghez juttassák el” – mondta Max Rizzuto, a DFR Lab munkatársa.

A thispersondoesnotexist által generált arcok montázsa.com
Az arcok mindegyikét a thispersondoesnotexist.com generálta.

A nemzetállamok is észrevették a technológiában rejlő lehetőségeket: a Graphika több tucat GAN által generált arcot fedezett fel, amelyeket Kínához és Oroszországhoz kapcsolódó kampányokban használtak. Kína esetében a GAN-generált képeket profilképként használták egy Facebook-kampányban, ahol hamis fiókok Peking-párti beszédtémákat terjesztettek többek között Tajvan, a Dél-kínai-tenger és Indonézia témáiról.

Az orosz kampányok ezzel szemben hamis arcokat használtak, hogy a megosztó politikai hírportálok mögött álló fiktív szerkesztők személyiségét hozzák létre.

Giorgio Patrini, a Sensity nevű deepfake-felismerő platform vezérigazgatója szerint a GAN által generált arcok a vállalati világban is megjelentek, többek között egy szoftvercég, amely hamis arcokat használt az ügyfelek ajánlásaihoz, és egy marketingcég, amely a technológiát a “csapatáról” készült fotók generálására használta.

“Ez valójában egy kitaláció”

Az első lépés a GAN-generált arcok kockázata elleni küzdelem felé a létezésükkel kapcsolatos tudatosság terjesztése, mondta Rizzuto úr. “Ha egyszer elmondod ezeknek az embereknek, hogy ez valójában egy koholmány, akkor láthatod ezt a fejlett érzéket, amellyel minden ember rendelkezik, hogy észrevegye a rendellenességeket egy képen.”

A StyleGAN2 mögött álló figyelemre méltó fejlődés ellenére számos árulkodó jele volt a hamisítványnak, mondta – például előfordulhat, hogy az alany feje megdől, miközben az orra és a fogai egyenesek maradnak. Az algoritmus a háttérben lévő tárgyak és más emberek beépítésekor is küszködhet, néha akaratlanul is kellemetlen látványt nyújtva.

A Graphika által említett másik potenciális árulkodó jelenség, hogy a GAN által generált arcok szemei mind ugyanott jelennek meg a képen belül, függetlenül attól, hogy az “alany” merre néz.

A kutatók, kormányzati szervek és technológiai cégek mindeközben modelleket építenek és fejlesztenek a hamis arcok felismerésére. Lyu úr az egyik ilyen technikáról szóló tanulmány szerzői között volt, amely az alanyok szemében tükröződő tárgyak képét vizsgálta annak érdekében, hogy megkülönböztesse a valódi arcokat a hamisaktól.

A terület folyamatosan fejlődik, mondta Rizzuto úr, rámutatva a Samsung tavalyi deepfake kutatására, amely a Mona Lisát valósághű beszélő fejjé változtatta. Elmondta, hogy a technológiát egy nap még valósághűbb hamis profilok létrehozására lehetne alkalmazni, különböző szögekből és arckifejezésekkel készített képeket létrehozva.

“A potenciális megtévesztő képességet ellensúlyozza a munka mennyisége, ami ahhoz szükséges, hogy ezt véghezvigyük” – mondta. “A közeljövőben arra számítok, hogy ez … jelentősen csökken.”

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé.