„Mutatok nektek egy varázslatot” – mondja Tom Cruise a TikTokon látható videóban, majd eltüntet egy érmét. (Egyébként valóban szeret és tud bűvészkedni.) „Ez egy valódi dolog, úgy értem, ez az egész valódi” – teszi hozzá, miközben magára mutat. A filmet milliók látták. A videó annyira élethű, hogy azt még a Mission: Impossible maszkjait tervező szakemberek is megirigyelnék. A három posztban a színész, illetve a színészt alakító technológia mozog, megszólal, még nevet is - a The Verge is csak egy olyan jelenetet talált, amelyben "Cruise" szemüvege a másodperc törtrészére eltűnik az arca előtt, felfedve a csalást. Arról nem beszélve, hogy a színész a valóságban jóval alacsonyabb és a másolat hangja sem tökéletesen egyezik az eredetivel, de még is sokakat megtévesztett. A hamisítványt az is jelez, hogy a @deeptomcruise nevű oldalon jelent meg.
A „deep fake” kifejezés a „deep learning”, gépi tanulás és a „fake”, hamisítvány szavak összetételéből született. Ha egy művi úton előállított, valóban élő színész golfozik, bűvészkedik a képeken az tűnhet ártalmatlan tréfának, de az új és egyre tökéletesebb formában megjelenő videók, amelyeken gyakorlatilag bármilyen ismert ember, közéleti szereplő, politikus megjelenhet és mondhat hitelesnek tűnően bármit, már veszélyesek is lehetnek - mondta lapunknak Rab Árpád trendkutató. Ennek a technológiának az a jellemzője, hogy teljességet kínál. Képet, hangot eddig is lehetett szerkeszteni, manipulálni, de ezzel komplexen lehet átalakítani videókat – ehhez kell a legújabb számítógépes technika, a gépi tanulás.
Kicserélhető egy arc, vagy éppen meghagyható, de átalakítható az, amit mond. Mindezt nagyon élethűen lehet megtenni, egyszerű ránézéssel a „trükk” nem fedezhető fel. Bár a mesterséges intelligencia nagyon meggyorsította a képátalakító folyamatokat, a videók esetében másodpercenként több tucat képet kell módosítani, és ez még mindig nagy munka. Azonban vannak már akár mobiltelefonos alkalmazások is, ahol a tulajdonos ráapplikálhtaja az arcát mondjuk a Trónok harca egyik szereplőjének alakjára és néhány másodpercig „játszhat” a filmben, noha ez könnyen felismerhető az algoritmusok számára. Nehéz elképzelni, hogy a "deep fake-nek" jelenleg mi lehet a haszna, egyelőre inkább csak erődemonstráció, miközben nagy veszélyt jelent, mert megrendíti az online-bizalmat. „Nem vagyok technológiaellenes, szeretem a technikai újdonságokat, de azt kell mondanom, itt csak a kockázatok látszanak” – mondta a trendkutató.
A közelmúltban az amerikai elnökválasztáskor többen felhívták a figyelmet, hogy megjelenhetnek hamis videók, ezért algoritmusokat állítottak be, hogy ezeket leleplezzék. Utólag kiderült, három-négy „deep fake”-videó készült, amelyeken például Kim Dzsong Un vagy Barack Obama beszél, csak éppen a mondanivalójukat torzították el. De ezeket még időben be tudták azonosítani, így nem gyakoroltak nagy hatást.
De mi lesz négy év múlva? Jelenleg tíz-tizenkét cég ígér „deep fake”-felismerő alkalmazásokat, még versenyeket is rendeznek számukra, de még a legjobbak is csak 70-80 százalékos eredménnyel dolgoznak. Minél fejlettebb a technika, vagy minél kisebb a torzítás, annál könnyebb kideríteni a turpisságot. Ha Kim Dzsong Un arról beszél, hogy az amerikai demokrácia jó dolog, ott egyből lehet tudni, valami nem stimmel, de kisebb manipulációkra már nehéz rájönni. A felhasználóknak gyakorlatilag nincs esélyük a hamisítványok szűrésére, a jövőben pedig már egyáltalán nem lesz. Akár online közvetítésben elő lehet adni a híradóban, hogy tankok vonulnak be egy országba, miközben nem. Mire az ott lakók videó képei megjelennek, hogy háborítatlanul sétálgatnak, és szó sincs harcokról, valahonnan már lehet, hogy elindultak a rakéták … És az ilyen videók nagyon gyorsan terjednek. Egy lejárató videón napokig csámcsog az online tér, de amikor a cáfolat megjelenik, már kevesebbeket érdekel: a rossz volt az érdekes. A szabályozás, a védekezés folyik, de mindig egy lépés lemaradásban van az algoritmusok fejlesztése. Soha véget nem érő csata lesz, miközben a bizalom az online térben már ma is kicsi.