Reich Orsolya

Felültetve: a hamisított pornóról és a demokrácia jövőjéről

  • Reich Orsolya
  • 2019. augusztus 3.

Publicisztika

A deepfake-technológia nem csak egyéni sorsunk alakulására nézvést veszélyes.

A Vice technológiai magazinja, a Motherboard 2017 decemberében AI-Assisted Fake Porn Is Here and We’re All Fucked (Megjelent a mesterséges intelligencia segítségével létrehozott hamisított pornó – mindannyian meg vagyunk b*szva) című cikkében arról tudósított, hogy egy deepfakes álnevű Reddit-felhasználó nyílt forráskódú gépi tanulást használó eszközök, az internetről letöltött videók és fotók, valamint egy közepesen jó számítógép segítségével összebuherált néhány meglehetősen valódinak tűnő pornóvideót, amelyekben látszólag híres színésznők szerepelnek.

Egy hónappal később a Motherboard már arról számolhatott be, hogy a fél internet mesterséges intelligencia alapú hamisított pornót gyárt (We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now, Motherboard, 2018. január 24.).

Abban természetesen nincsen semmi meglepő, hogy nem minden úgy van a valóságban, ahogy azt mozgóképeken látjuk. A filmnek sosem volt teljességgel ártatlan időszaka. Kameratrükkök alkalmazására már a filmtörténet kezdetéről, az 1890-es évekből is bőségesen találhatunk példákat, az 1990-es évek közepétől pedig minden második hollywoodi filmben szerepelnek számítógép segítségével megrajzolt vagy manipulált, de valódinak tűnő figurák.

A fenti történet újdonsága abban áll, hogy míg eddig egy olyan jelenet legyártásához, ahol a jelenetben ténylegesen részt vevő ember arcát egy másik létező ember arcára cserélik, egy teljes filmstúdió eszközparkjára és rengeteg ember kitartó munkájára volt szükség, ma a mesterséges intelligencia segítségével már az átlagnál valamivel türelmesebb, de átlagos tudású és felszereltségű felhasználók is létrehozhatnak ilyen videókat. Most még a hobbista deepfakes-ek többségéről könnyedén megállapítható, hogy manipuláltak. Ha azonban a technológia az eddigiekhez hasonló ütemben fejlődik, néhány hónap múlva ezek a filmecskék már nem csak első ránézésre tűnnek valóságosnak.

Nicholas Cage megpróbál úgy kinézni, mint szerzőnk

Nicholas Cage megpróbál úgy kinézni, mint szerzőnk

 

Azt, hogy a deepfake-technológia demokratizálódása a közeljövőben milyen egyéni tragédiákhoz vezethet – és legalább néhány esetben egészen biztosan fog is vezetni –, könnyű elképzelnünk. Megfelelően tájékozott és kitartó rosszakarókkal bírva bármelyikünkkel megtörténhet, hogy az állásinterjúnk előtti napon jövendőbeli főnökünk postaládájában landol egy képsor, amelyben minősíthetetlen hangnemben beszélünk jelenlegi munkaadónkról, vagy épp házastársunk kap egy minket a jó fenekű szomszéddal (vagy szomszédasszonnyal, ízlés szerint) in flagranti ábrázoló klipet.

Kételkedés nélkül

De a deepfake-technológia nem csak egyéni sorsunk alakulására nézvést veszélyes. Képzeljük el, mi történt volna, ha az előválasztás előtt egy látszólag rejtett kamerás felvétel kezdett volna terjedni a közösségi médiában, amelyen Kerpel-Fronius Gábor arról mesél egy barátjának, hogy valójában a hócsizmája kivan attól, hogy éretlen hülyegyerekek szekerét kell tolnia. Vagy Karácsony Gergely bevallaná, hogy mélységesen megveti a harminc év feletti egyedülállókat. Vagy Kálmán Olga elismerné, hogy egyetért a kormánypárt bevándorláspolitikájával.

Egy ilyen deepfake videó könnyedén tízezreket tántoríthatott volna el a szavazástól és eldönthette volna az előválasztást. És ez még kismiska ahhoz képest, ami akkor történhetne, ha maholnap ismert magyar jogvédők mesélnének arról egy valódinak tűnő videóban, hogy hogyan vásárolt nekik tengerparti villákat Soros a magyarság iszlamizálásának brüsszeli elősegítéséért cserébe. Vagy ha melegaktivisták ismernék el, hogy természetesen az csak a buta vidékieknek szóló kamu, hogy a melegek nem pedofilok.

Az olvasó itt közbevághatna, hogy felesleges ez az alarmizmus – igen, nyilván előfordulhat, és rettenetesen sajnálatos lesz, ha megtörténik, hogy valaki egy deepfake videó hatására bukik el egy önkormányzati választást. És az is lehet, hogy feltüzelt radikálisok itt-ott bedobnak majd téglával egy-egy ablakot. De ez nem lesz tömegjelenség. Ahogy viszonylag hamar megtanultuk, hogy nem minden igaz, amit a fotókon látunk, úgy azt is meg fogjuk tanulni, hogy nem kell kételkedés nélkül megtörténtnek gondolnunk, amikor valakit mozgóképen megjelenni vagy beszélni látunk.

Csakhogy ez az okoskodás közel sem annyira megnyugtató, mint amilyennek első olvasásra tűnhet. Az emberek hajlamosak a nekik nem tetsző hírek igazságában kételkedni. Mindeddig, ha valamiről megfelelően jó minőségű mozgókép készült, jó okunk volt arra, hogy ne dobjuk rögtön félre azzal, hogy ez csak egy gonosz álhír – bármennyire is kellemetlen volt az, amit láttunk. A valóságba horgonyozottság eme kényszerítő ereje a deepfake megjelenésével eltűnik, a filterbuborékok közötti távolság tovább nő és a demokrácia ezzel tovább erodálódik.

false

Mit tegyünk akkor? – sóhajthat fel itt az olvasó. Fenyegessük börtönnel a deepfake-ek terjesztőit? Kampányoljunk a technológia teljes betiltásáért az Európai Uniónál? Vagy lássuk be, hogy az ilyesfajta általános tiltás, amellett, hogy a szólásszabadságunkat is megengedhetetlenül korlátozná, úgysem válik be – majd vonjuk meg a vállunkat, és jobb híján csatlakozzunk a deepfake-rajongók azon táborához, akik minden létező híres filmjelenetbe beleszerkesztik Nicolas Cage arcát?

Van azért néhány köztes, a feladásnál üdvösebb, a tiltásnál és kemény büntetések kilátásba helyezésénél mind emberi jogi, mind praktikus szempontból elfogadhatóbb megoldás is.

Az egyik közkézen forgó javaslat például az, hogy a deepfake-gyártásra alkalmas eszközöket közkézre bocsátó kutatók és cégek kötelezően építsenek bele olyan „vízjelet” a programjaikon keresztül gyártott videókba, amelyek félreérthetetlenül jelzik, hogy nem a valóságot látjuk. Mások azt javasolják, hogy a közösségi média szűrje és kötelezően jelezze a felhasználóinak, hogy az adott videókba valamilyen nem ártatlan módon belepiszkáltak.

Ezek támogatandó javaslatok, ugyanakkor nagy valószínűséggel elégtelenek. A kötelező vízjelezés valamelyest megnehezítheti rosszakarónk, Szembeszomszéd Józsi dolgát, hogy jól elhelyezett deepfake-ekkel megnehezíthesse az életünket, de az orosz propagandagépezet aligha fogja vízjelekkel ellátni választási időszakokban terjesztett videóit. A szűrés és jelzés (ami nem tévesztendő össze a szűrés és törléssel!) szintén hasznos lehet. De ahogy mindig lesz, aki tud olyan vírust írni, ami kicselezi a vírusirtókat, lesz olyan is, aki tud olyan deepfake videót gyártani, ami átcsúszik a deepfake-szűrőn.

Maradunk a platformon

A deepfake videókon terjesztett félretájékoztatás ellen (a fenti technikai megoldások mellett) ugyanúgy kell küzdenünk, mint a klasszikus, szövegalapú félretájékoztatás (az „álhírek” egy alfaja) ellen. Például a forráskritikai és médiaismereteknek a közoktatásba emelésével. Sokkal kisebb veszélye van annak, hogy a félretájékoztatást célzó film virálissá válik, ha a megfelelő tudással felvértezett felhasználók tucatjai jelentik a platformnak, hogy valami nem legitim dolog történik. (Valahogy így: itt egy deepfake videó – nincs rajta vízjel, nem szűrte ki a szűrő, hogy megpiszkált tartalom, de mégiscsak az.)

false

Ma többségünk a közösségi médián keresztül fogyaszt híreket. A rosszindulatú politikai álhírek is a közösségi médián keresztül terjednek. Annak oka, hogy az elmúlt öt évben olyan félelmetes sebességgel tették ezt, a digitális reklámozás jelenlegi gyakorlatában keresendő. Ma a felhasználók a hirdetések tolerálásáért és a személyes adataikért cserébe ingyenes hozzáférést kapnak rengeteg online szolgáltatáshoz, így a közösségi médiaplatformokhoz is. Ezek tulajdonosainak az az érdeke, hogy minél tovább a felületükön tartsák a felhasználókat, hiszen annál több, a platform bevételét biztosító hirdetést lehet neki mutatni.

És természetesen akkor maradunk sokáig egy-egy oldalon, ha azokat a híreket és bejegyzéseket tolja a szemünk elé, amelyek érdekelnek minket, amelyek erős érzelmeket váltanak ki belőlünk. A platform erre akkor képes, ha megfelelően profilozhat minket, ha sok személyes információt tárolhat rólunk. Miután az álhírek jellemzően erős érzelmeket ébresztenek, sok hasznot termelnek a platformok számára – amennyiben az algoritmus a megfelelő álhírt a megfelelő emberek hírfolyamába tudja bedobni.

Vagyis mindeddig sok hasznot termeltek. Az elmúlt évek politikai álhírbotrányai megrengették a közösségi média viszonyát a felhasználókkal – és ami legalább ennyire fontos, a törvényalkotókkal is. A békés pros­perá­lás helyreállítása érdekében a platformok a tartalomszűrés különböző formáival kísérleteznek, például azzal, hogy azonosítják a politikai jellegű hirdetéseket, bejegyzéseket, és akadályozzák azok terjedését. Vagy egy­szerűen bezárnak aggályosnak tűnő profilokat. Ez a platformok számára kellemes megoldás – az üzletet potenciálisan veszélyeztető tartalmakat törlik, az üzleti modell pedig maradhat a régi.

A szólásszabadság híveinek azonban el kell utasítaniuk ezt. Ha kevesebb álhírt, jövőbeli deepfake-botrányt és egy jobban működő demokráciát szeretnénk, vélhetően amellett kell felszólalnunk, hogy a szabályozó hatóságok fordítsanak nagyobb figyelmet személyes adataink védelmére, és kezdjenek valamit a személyre szabott hirdetések káros gyakorlatával. Ez persze nem fog minket megóvni attól, hogy Szembeszomszéd Józsi galád csele miatt elbukjuk az állásinterjút, vagy hogy néhány napig a kanapén kelljen éjszakáznunk. De segíthet megóvni a demokráciánkat.

Vagy annak a maradékát. Az is valami.

A szerző filozófus és jogvédő.

Figyelmébe ajánljuk