Szinte nincs olyan ember, aki ne látott volna olyan videót az interneten, ahol két ember arcot cserél, de az biztos, hogy az ilyen úgynevezett face swap fotókat elkerülni sem lehetett. Illetve olyan szexvideókról is szó volt sokszor, ahol szeplők arcát egész egyszerűen lecserélték valamelyik hírességére. Utóbbiak néha már-már megtévesztőek voltak, és ez az, ami a legnagyobb kihívás lesz a jövőben úgy, hogy még a hamis hírek terjedését sem sikerült legyőzni, sőt, olyan mint egy szélmalomharc.

A magyarul igazából lefordíthatatlan deepfake videók ugyanis a mesterséges intelligencián alapulnak, magyarán, állandóan tanulnak. Tegyük fel, hogy egy ismert politikus mondjuk beteg lesz, de népet nem akarják ezzel idegesíteni, ezért a mesterséges intelligencia a róla található rengeteg képből és videóból megcsinálja a politikus arcát, lemásolja a hangját, és máris ki lehet állítani, hogy tessék, nincs is semmi baja, hiszen most jelentkezett be innen és innen. És ez még csak a jobbik eset, mert mi van akkor, ha valakit le akarnak járatni, és ugyanezt megcsinálják vele?

Gondoljunk megint arra, hogy a hamis híreket sem tudjuk megállítani, de mi van ha a világ egyik vezetőjéről csinálnak ilyen videót, teljesen negatív, nem valós kontextusban. Ahogy egyébként már csináltak is, csak egyelőre még nem tart ott a technológia, hogy ne lehessen észrevenni, ahogy például ezen a Trump-videón. Viszont hamarosan ott fog, és lehet hogy már nem is évek kérdése a dolog.

Lehet ez ellen védekezni?

Nem csak lehet, de kell is, vagy hamarosan gyakorlatilag semmit nem hihetünk el, ami a szemünk elé kerül. A Google és a Facebook szakemberei szerint ez gyakorlatilag egy olyan verseny lesz, hogy hol a hamisítók, hol az őket üldözők kerülnek majd előnybe, de a verseny feladása az üldözők részéről katasztrofális lehet.

Szóval mindkét nagy cég dolgozik már jó ideje azon, hogy minél eredményesebben szűrje ki az ilyen videókat a felületeiről, ehhez pedig folyamatosan tesztelnek, kísérleteznek, de még van min dolgozni. A Google arcfelismerő szoftvere például szinte száz százalékos pontossággal működik a hús vér emberek felismerésén, viszont amint deepfake videót tesznek elé, 40 százalékosra csökken a hatékonysága. Egyelőre az ilyen videókat nézve, még ha nagyon jól megcsináltak is, azért kiszúrható, hogy valami nem stimmel, de a technika folyamatosan fejlődik.

Szóval nem tehetnek mást, ők is folyamatosan fejlesztik a meglévő szoftvereket úgy, hogy ha találnak valahol hamis videót, azonnal lecsapnak rá, elemzik, és beépítik a saját MI algoritmusukba. Mi pedig csak reménykedünk, hogy mindig a jó oldal lesz a gyorsabb.

Forrás: The New York Times