;

deep fake;

- Deepfake: csak a veszélyei látszanak

Megtévesztően élethűen viselkedik a hamisított Tom Cruise a TikTokra a napokban feltöltött videóban. A hamis valóságok egyre tökéletesebbek, olcsóbbak, és egyre veszélyesebbek.

„Mutatok nektek egy varázslatot” – mondja Tom Cruise a TikTokon látható videóban, majd eltüntet egy érmét. (Egyébként valóban szeret és tud bűvészkedni.) „Ez egy valódi dolog, úgy értem, ez az egész valódi” – teszi hozzá, miközben magára mutat. A filmet milliók látták. A videó annyira élethű, hogy azt még a Mission: Impossible maszkjait tervező szakemberek is megirigyelnék. A három posztban a színész, illetve a színészt alakító technológia mozog, megszólal, még nevet is - a The Verge is csak egy olyan jelenetet talált, amelyben "Cruise" szemüvege a másodperc törtrészére eltűnik az arca előtt, felfedve a csalást. Arról nem beszélve, hogy a színész a valóságban jóval alacsonyabb és a másolat hangja sem tökéletesen egyezik az eredetivel, de még is sokakat megtévesztett. A hamisítványt az is jelez, hogy a @deeptomcruise nevű oldalon jelent meg.

A „deep fake” kifejezés a „deep learning”, gépi tanulás és a „fake”, hamisítvány szavak összetételéből született. Ha egy művi úton előállított, valóban élő színész golfozik, bűvészkedik a képeken az tűnhet ártalmatlan tréfának, de az új és egyre tökéletesebb formában megjelenő videók, amelyeken gyakorlatilag bármilyen ismert ember, közéleti szereplő, politikus megjelenhet és mondhat hitelesnek tűnően bármit, már veszélyesek is lehetnek - mondta lapunknak Rab Árpád trendkutató. Ennek a technológiának az a jellemzője, hogy teljességet kínál. Képet, hangot eddig is lehetett szerkeszteni, manipulálni, de ezzel komplexen lehet átalakítani videókat – ehhez kell a legújabb számítógépes technika, a gépi tanulás.

Kicserélhető egy arc, vagy éppen meghagyható, de átalakítható az, amit mond. Mindezt nagyon élethűen lehet megtenni, egyszerű ránézéssel a „trükk” nem fedezhető fel. Bár a mesterséges intelligencia nagyon meggyorsította a képátalakító folyamatokat, a videók esetében másodpercenként több tucat képet kell módosítani, és ez még mindig nagy munka. Azonban vannak már akár mobiltelefonos alkalmazások is, ahol a tulajdonos ráapplikálhtaja az arcát mondjuk a Trónok harca egyik szereplőjének alakjára és néhány másodpercig „játszhat” a filmben, noha ez könnyen felismerhető az algoritmusok számára. Nehéz elképzelni, hogy a "deep fake-nek" jelenleg mi lehet a haszna, egyelőre inkább csak erődemonstráció, miközben nagy veszélyt jelent, mert megrendíti az online-bizalmat. „Nem vagyok technológiaellenes, szeretem a technikai újdonságokat, de azt kell mondanom, itt csak a kockázatok látszanak” – mondta a trendkutató.

A közelmúltban az amerikai elnökválasztáskor többen felhívták a figyelmet, hogy megjelenhetnek hamis videók, ezért algoritmusokat állítottak be, hogy ezeket leleplezzék. Utólag kiderült, három-négy „deep fake”-videó készült, amelyeken például Kim Dzsong Un vagy Barack Obama beszél, csak éppen a mondanivalójukat torzították el. De ezeket még időben be tudták azonosítani, így nem gyakoroltak nagy hatást.

De mi lesz négy év múlva? Jelenleg tíz-tizenkét cég ígér „deep fake”-felismerő alkalmazásokat, még versenyeket is rendeznek számukra, de még a legjobbak is csak 70-80 százalékos eredménnyel dolgoznak. Minél fejlettebb a technika, vagy minél kisebb a torzítás, annál könnyebb kideríteni a turpisságot. Ha Kim Dzsong Un arról beszél, hogy az amerikai demokrácia jó dolog, ott egyből lehet tudni, valami nem stimmel, de kisebb manipulációkra már nehéz rájönni. A felhasználóknak gyakorlatilag nincs esélyük a hamisítványok szűrésére, a jövőben pedig már egyáltalán nem lesz. Akár online közvetítésben elő lehet adni a híradóban, hogy tankok vonulnak be egy országba, miközben nem. Mire az ott lakók videó képei megjelennek, hogy háborítatlanul sétálgatnak, és szó sincs harcokról, valahonnan már lehet, hogy elindultak a rakéták … És az ilyen videók nagyon gyorsan terjednek. Egy lejárató videón napokig csámcsog az online tér, de amikor a cáfolat megjelenik, már kevesebbeket érdekel: a rossz volt az érdekes. A szabályozás, a védekezés folyik, de mindig egy lépés lemaradásban van az algoritmusok fejlesztése. Soha véget nem érő csata lesz, miközben a bizalom az online térben már ma is kicsi.

A tiltások kezdeteEgyre több helyen fontolgatják a deepfake programoknak, ha nem is teljes betiltását, de legalább az alkalmazási területük korlátozását. New Jersey hatóságai például a leendő elnökjelöltek képeivel és hangjával való manipulációt tervezik betiltani, New Yorkban pedig olyan törvényt hoztak, amely szerint tilos egy színész, legyen élő vagy holt, képének felhasználása kereskedelmi célokra a beleegyezése nélkül. Ebbe beletartozik a rég elhunyt színészek szereplésével előállított deepfake videó is. Kaliforniában a technológia politikai használatát tiltották be, de még a kínai kormányban is felmerülhetett, hogy náluk is veszélyesek lehetnek az ilyen videók, mert ők is törvénytelennek nyilvánították azokat.
A szórakoztatástól az aggasztó videókigA deepfake videók néhány éve jöttek divatba. Egyelőre szerencsére a félrevezető politikai deepfake-ek helyett Richard Nixont láthattuk bejelenteni az Apollo 11 küldetés kudarcát, vagy Erzsébet királynőt figyelhettük szájtátva, amint átadja különleges karácsonyi üdvözletét. Sokak vágya teljesült be, amikor végre megnézhettük, hogy nézett volna ki a Terminator Sylvester Stallonéval a főszerepben, az utóbbi időben viszont egyre sokasodtak az aggasztó jelek a technológia körül. Az első aggasztó jel az volt, amikor egyre gyakrabban kezdtek el szexvideók előkerülni olyan hírességekről, akikről amúgy soha nem szivárgott ki semmi - írja a raketa.hu. Az álpornók terjedése közben egyre-másra jöttek ki azok a felvételek is, amiken egy híres ember (jellemzően politikus) mond teljes baromságokat, vagy a meggyőződésével ellentétes dolgokat. Hogy csak három példát említsünk: Mark Zuckerberg bevallja, hogy gátlástalanul visszaélnek a felhasználók adataival és legféltettebb titkaikkal, Barack Obama nyilvánosan kimondja, hogy Donald Trump egy szarházi alak, Donald Trump pedig bejelenti, hogy felszámolták az AIDS-et. Ezekről a videókról még a megjelenésük pillanatától lehetett tudni, hogy hamisak (mivel a készítőik elárulták), de ne legyenek illúzióink: ez nem marad így örökre.     
A Microsoft szűrőjeSzakértők szerint egyre sürgetőbb, hogy megtaláljuk azt a technológiát, ami megbízhatóan kiszűri ezeket a "felvételeket". A Microsoft tavaly jelentett be egy olyan programot, a Microsoft Video Authenticatort, amely megmondja egy-egy állóképről vagy videókockáról, hogy mennyire valószínű, hogy manipulálták. A hasonló megoldásoknál talán csak az lesz fontosabb, hogy ezek az információk jól láthatóan és érthetően jelenjenek meg minél több csatornán - mert deeptomcruise-t valószínűleg elkerülhetetlen, hogy deepbiden vagy deepputin kövessék rövidesen. És amit ők "mondanak", "tesznek" azt sokkal veszélyesebb komolyan venni.  
DeepNostalgia: Életre kelthető ősökA DeepNostalgia alkalmazással életre kelthetjük őseinket egy deepfake videó erejéig. A MyHeritage családfakutató platform olyan applikációt dobott piacra, mely a feltöltött fotókból mozgó animációt készít egy pillanat alatt. Az eredmény olyan érzést kelt, mintha egy rövid időre újra élőnek láthatnánk elhunyt szeretteinket - írja a raketa.hu. Az alkalmazás, melyet a Google Play-ből is letölthetünk. A cég hangsúlyozza, hogy tisztában vannak vele, hogy nem mindenki fogja szeretni ezt az alkalmazást és sokan inkább ijesztőnek tartják majd a végeredményt. De aki szeretne "találkozni" eddig csak fényképről ismert őseivel, vagy újraélni az elhunyt rokonaival való együttlétet, annak érdekes lehetőséget nyújt a program. Hangot és beszédet imitáló szájmozgást direkt nem adtak az animációkhoz a fejlesztők, hogy a kész videó ne legyen túlságosan kísérteties.

Egy új megközelítéssel végzett kutatás szerint meghatározzák az éjszakai nyugalmat, de a nappal észlelt tüneteket is az aznap tudomásunkra jutott halálozási adatok.