Orcátlan bizonyítékok

Arc bizonyíték

Pár hete írtam a mesterséges intelligencia (AI) megszólalás után is tökéletes hangutánzásáról, aminek nyomán vélhetően egyetlen magát komolyan vevő biztonsági megoldás sem alapulhat manapság már kizárólag hangazonosításon és máris itt a legújabb őrület, a “#DEEPFAKES,” amely egyelőre “csak” a közösségi médiát és a pornómegosztó weboldalakat tarolta le. Pedig – ahogy az lenni szokott – a technológia nagyon is érintheti a jelenleg ismert biztonsági, bizonyítási megoldásokat is.

A digitális technológia ugyanis immáron lehetővé teszi, hogy nemcsak filmstúdiók, hanem lényegében bárki (otthoni, nem professzionális eszközöket használva) ráretusáljon, illetve talán pontosabban “ráanimáljon” egy ismert arcot egy tetszőleges videón szereplő, másik személyre.

Mindez egyelőre leginkább persze a pornófogyasztókat érdekli, olyan, a valóságban soha meg nem történt helyzetbe hozva a kedvenc színésznőiket, amelyek természetesen súlyosan sértik az érintettek személyiségi jogait, másik oldalról pedig jelentősen érintik az eredeti műalkotás integritását is.

A “pornómegosztó” weboldalak, továbbá a közösségi média önszabályozással igyekeznek megakadályozni a videók további terjedését, de például Gal Gadot és Emma Watson nevét a DEEPFAKES keresőszóval párosítva bárki számos hasonló videót találhat a legismertebb online keresőkkel is. Ennél némileg fontosabb, hogy nemcsak színészek, hanem lényegében bárkinek az arcjátéka ráanimálható bármilyen – abban a formában soha meg nem történt – helyzetre. Igen, első körben ez is a “revenge porn” területén jelent meg először.

De elvonatkoztatva az úgy tűnik sokak számára leginkább “kézenfekvő” területektől, mint a pornográfia, a szóban forgó technológia olyan módon is megjelenhet, ahol egy-egy módosított videofelvétel döntő, akár “perdöntő” jelentőségű lehet, például egy bizonyítási eljárás során. Vagy épp, a módosított felvétel a közvélemény tájékoztatására, még inkább pedig befolyásolására lesz alkalmas.

A technológia persze már eddig is adott volt minderre, csak épp nem a szomszéd számítógépén. A leginkább felkapott, mesterséges intelligencián alapuló szoftver a FakeApp ugyanis bárki számára elérhető, mint ahogy megjelentek a egyszerűbb és részletesebb útmutatók is a különböző verziók használatával kapcsolatban.

Egy közérdeklődésre számot tartó videofelvétel nyomán a közvélemény egy részénél elég lehet csak a felvétel eredetiségére irányuló gyanú lehetőségét felébreszteni. Márpedig a dezinformálás az egész világon eleme a tömegtájékoztatásnak, akár az USA, akár Oroszország részéről lehet példát is felhozni rá. Ma pedig már bárki a virtuális valóságban élheti az életét, ha hírfogyasztását egyetlen forrásból próbálja kielégíteni.

Konkrétabb példát említve, egy-egy manipulált hangfelvétel, vagy videofelvétel politikai célból történő előállítása, vagy felhasználása, továbbá politikai, vagy épp gazdasági döntéshozók, közszereplők befolyásolása nyomán nagyon is valós, és talán biztonsági szempontból is releváns veszélyt jelenthet ez a technológia, talán már a közeljövőben is.

Felmerülhet persze a kérdés, hogy miközben a fényképek esetében évszázados hagyománya van a retusálásnak, utólagos módosításnak, azt aligha lehet állítani, hogy tömeges jelenség lenne például bizonyítékul szolgáló kép módosításával való visszaélés.

A kérdés tehát az, hogy az új technológiai lehetőség miben más, mint egy fényképfelvétel manipulálása? Egyfelől a potenciális érdeksérelem nagyobb. Másrészt az, hogy fényképfelvétel készüljön valakiről – a tudta nélkül (lesifotós, paparazzi) – máig atipikusnak tekinthető.

Vagyis egy jól beállított, de titokban készült fényképfelvétel esetén mindig felmerül az a kérdés is, hogy azt esetleg manipulálták-e? Az viszont, hogy valaki elhalad például egy biztonsági kamera előtt, feltűnik egy étterem biztonsági kamerájának, vagy épp egy autó fedélzeti kamerájának előterében mára már mindennapossá vált.

Harmadrészt pedig, és talán ez a legfontosabb: egész egyszerűen nem merül fel egyelőre a gyanú sem eddig a videofelvételek esetleges manipulációjára. Mindettől függetlenül – egyelőre – szerencsére még nem kell minden videofelvételnél azonnal manipulációra gondolni, de bizonyos esetekben érdemes lehet figyelembe venni ezentúl ennek a lehetőségét is.

Ha tetszett, ne maradj le a következőről: