Kína;arcfelismerő;érzelemfelismerő;

Chinese netizens shocked by numerous surveillance cameras on one single beam

- Mosolyogj a kamerába!

Nagy testvér Kínában tovább folyik az embereket megfigyelő kamerarendszer kiépítése, az újítás: most az érzelmekre koncentrálnak.

„A hétköznapi emberek nem örülnek ennek a technológiának, de nincs más választásuk. Ha a rendőrség azt mondja, szükség van kamerákra a közösségükben, nincs más választásuk, együtt kell élni velük” – mondta Chen Wei, aki annak az egyik techcégnek, a Taigusysnak az igazgatója, amelyik az érzelemfelismerő rendszerekre specializálódott. Ez a legújabb forradalom abban a folyamatban, amelynek során a kínai emberek életének szinte minden pillanatát monitorozzák. Az érzelemfelismerő-technológia túlmegy a szimpla arcfelismerésen, hiszen meg tudja különböztetni a dühöt, szomorúságot, boldogságot és az unalmat az arcizmok mozgása, a hang tónusa, a testjelzések és más biometrikai jelek alapján. Az érzelmek tömeges felmérésére azért is szükség van, mert maga Hszi Csin-ping elnök hangsúlyozta a „pozitív energiák” fontosságát egy ideológiai kampány részeként, ami szerint bizonyos érzelmeket bátorítani, míg másokat visszafogni kell.

Chen Wei szerint ez most a slágertermékük, legfőképp a járvány miatt. Szerinte üdvözlendő, hogy fel lehet mérni veszélyes bűnözők, rabok, problémás tanulók, és idősek otthonában lakó demens emberek érzelmi állapotát. Háromszáz börtönben, vizsgálati fogdában, és letartóztatottakat fogva tartó intézményben már működik is 60 ezer kamera. „A fogdákban nagyon gyakori az erőszak, öngyilkosság, az őrök ma már, ha nem is verik a rabokat, más módon gyakran kínozzák őket, például nem hagyják őket aludni, amitől összeomlanak, öngyilkosok lehetnek. Ettől megvédhet a rendszer” – magyarázta Chen. A megfigyelt rabok sokkal nyugodtabbak. Míg azonban az iskolák érzelmi monitorozása vitákat szült, a lakosság kamerázása nem keltett különösebb ellenérzéseket. Chen felidéz egy tavalyi esetet, amikor egy biztonsági őr 41 embert késelt meg, szerinte a technológiával ez megakadályozható lett volna.

Vidushi Marda, brit emberi jogi szervezet digitális programigazgatója, és egy ügyvédje szerint az igazgatónak nincs igaza. „Ismerős és frusztráló, gyakran hallott narratíva, amikor villogó új technológiák jelennek meg a biztonság jelszavával takarózva, de a valóságban a videómegfigyeléseknek kevés közük van a biztonsághoz. Nem tudom, hogyan képzelik, hogy az azonos idejű megfigyelés csökkentheti az erőszakot. A biometrikus felméréseknek szerintem a megfélemlítéshez és a cenzúrázáshoz van közük, az érzelemfelmérés ennek egyik példája” – jegyzi meg Marda. Másik probléma, hogy ezek a rendszerek általában színészek által előadott jellemzőket vesznek alapul, akiknek pózolása a boldog, a szomorú, a dühös szerepében nem valódi érzelmeket tükröz, továbbá az egyes kultúrákban az érzelmek megjelenítése eltérhet az arcon, ami tévedésekhez vezethet. A Taigusy egyik rendszere, amelyet a kínai rendőrség és Tajvan, valamint afrikai országok is alkalmaznak, megkülönböztet feketéket, fehéreket, sárgákat sőt ujgurokat is, őket megjelöli, mert eltérnek a han kínaiaktól.

A szakértők szerint a technológia áltudományos sztereotípiákon alapul, és a kutatók, ügyvédek, emberi jogi aktivisták egyre növekvő számban gondolják, súlyos hatással van az emberi jogokra, a magánéletre és a véleménynyilvánítás szabadságára. Az, hogy érzelemfelismerő rendszereket lehet fejleszteni Kínában, a személyiségjogi törvények hiánya teszi lehetővé. Nincsenek korlátok a hatóságok előtt a biometrikus adatokhoz való hozzáférésben, ha nemzetbiztonsági vagy közösségi érdekekről van szó, ami a Taigusynak és hasonló cégeknek teljes szabadságot ad.     

Bárki jelentkezhet a SpaceX 2023-as űrtúrájára, aki kreatív tevékenységet végez.