Počas posledných niekoľkých rokov, vzostup falzifikátov AI je veľmi veľa ľudí znepokojených, s odborníkmi ktorý varujú, že táto technológia by mohla byť použitá na šírenie lži a dezinformácie online. Skutočné dôkazy o tom, že sa to deje, boli zatiaľ na Zemi málo.
Publikácia hovorí, že falošný profil, vzhľadom na meno Katie Jones, súvisí s množstvom politických expertov vo Washingtone. Zahŕňali rozptyl vládnych predstaviteľov, ako napríklad asistenta senátora, zástupcu štátneho tajomníka ministra zahraničných vecí a Paula Winfreeho, ekonóma, ktorý je v súčasnosti považovaný za miesto v Federálnej rezerve.
Využívanie sociálnej siete pre tento druh nízkorizikovej špionáže je samozrejmosťou, pričom USA a Európa sa obávajú najmä rozsiahlych operácií, ktoré začala Čína. Ako povedal William Evanina, riaditeľ Národného kontrarozviedkového a bezpečnostného centra USA, AP:„Namiesto toho, aby boli špióni poslaní do niektorej parkovacej garáže v USA s cieľom prijať cieľ, je efektívnejšie sedieť za počítačom v Šanghaji a posielať žiadosť o priateľstvo. Až 30 000 cieľov.“
Ale to, čo robí prípad „Katie Jones“ nezvyčajným, je použitie metódy AI známej ako generatívna kontroverzná sieť(alebo GAN) na vytvorenie falošného profilu účtu.
Použitie GAN na vytvorenie falošných tvárí sa v posledných rokoch stalo neuveriteľné jednoduchým, čo dokazuje popularita webových stránok ako ThisPersonDoesNotExist.com. Aj keď špióni používajúci LinkeId by mohli ľahko zachytiť obrázky alebo náhodné fotografie sociálnych médií vytvoriť svoj účet, pomocou falošného AI pridá vrstvu ochrany. Pretože každý obrázok je jedinečný, nie je možné ho vyhľadať na zdroj s reverzným vyhľadávaním obrazu, aby ste mohli ľahko odhaliť.
A aj keď tieto falzifikáty vyzerajú na prvý pohľad presvedčivo, ľahko sa objavia, keď sa pozriete trochu bližšie. V prípade „Katie Jones“ vidíte, že tvár je mierne asymetrická s nezreteľným pozadím. Hrany jej vlasov a ucha sú tiež rozmazané a na tele sa objavujú podivné pruhy. Niekoľko expertov, s ktorými AP hovoril, uzavrela obraz, ktorý bol určite vytvorený pomocou techník strojového učenia.
Takýto incident samozrejme nie je dôkazom toho, že falzifikáty Umelej Inteligencie zničia náš pojem pravdy a dôkazov. Ukazuje sa však, že tieto obavy nie sú len teoretické a že táto technológia – ako každá iná – sa bude pomaly prispôsobovať škodlivými aktérmi.