FYI.

This story is over 5 years old.

Tech

We zijn echt de sigaar: iedereen maakt nu AI-gegenereerde nepporno

Er is nu een makkelijke app die iedereens hoofd in een willekeurige pornofilm kan plakken.
Het gezicht van Daisy Ridley op het lijf van een pornoster.

In december, ontdekte Motherboard een redditor die door het leven gaat als deepfakes. Online genoot hij heel rustig van zijn nieuwe hobby: pornosterren met ‘echte’ sterren te faceswappen. Sterren, zoals Gal Gadot en Taylor Swift, en nog een paar vrouwen. Alles dat hij er voor nodig had was een zelflerend algoritme (klinkt sick, is het ook, maar er zijn een hoop slimme mensen), een thuiscomputer, publiekelijk beschikbaar beeldmateriaal en een beetje vrije tijd.

Advertentie

Een paar weken later is het produceren van AI-gestuurde faceswapporno een megahype. En het resultaat wordt steeds overtuigender. Er is nu zelfs een algoritme online gezet dat iedereen kan gebruiken. Elk persoon op de wereld met vingers ogen en een computer kan zijn of haar favoriete wereldster op het lijf van een porno-acteur plakken.

Dit zijn situaties waar experts in december nog voor waarschuwde. Het schrikbeeld van toen, is een paar weken later al realiteit. Het woord ‘deepfake’ is inmiddels al een zelfstandig naamwoord waarmee mensen AI-nepporno beschrijven.

Een andere redditor die door het leven gaat als 'deepfakeapp,' creëerde FakeApp , een gebruiksvriendelijke applicatie die iedereen kan gebruiken. Deepfake (the original) reageerde helaas niet op mijn uitnodiging te reflecteren op zijn nieuwe creatie. Deepfakeapp wilde wel praten: “Ik denk dat de huidige versie van de app een mooi fundament legt, maar ik wil het de komende maanden nog gaan verbeteren,” zegt hij per mail. “Uiteindelijk wil ik dat mensen gewoon een pornovideo kunnen uitkiezen, een neuraal netwerk downloaden van een bepaald gezicht, en die dan met 1 druk op de knop swappen met de pornofilm.”

In januari, vlak na het verschijnen van het deepfakes-verhaal, belde ik met Peter Eckersley, hoofd computerwetenschapper van de Electronic Frontier Foundation. Ik wilde van hem weten wat de maatschappelijke implicaties van deze technologie zijn. “Ik denk dat deze technologie binnenkort voor iedereen beschikbaar is op het internet,” zei hij toen. “Mensen kunnen nu nog wel het verschil zien tussen een echte en een nepvideo, maar dat blijft niet langer dan 2 jaar het geval.”

Advertentie

In werkelijkheid heeft het niet eens langer dan een maand geduurd. We hebben tientallen video’s gezien die ongelooflijk overtuigend zijn. Redditor UnobtrusiveBot swapte Jessica Alba’s gezicht op het lichaam van porno-actrice Melanie Rios. “Zo gepiept – duurde maar een uurtje of 5.”

Redditor nuttynutter6969 gebruikte de openbare FakeApp om Daisy Ridley’s gezicht swappen op een andere pornoster:

Op andere websites wordt al gedaan of fakes van de subreddit echt zijn; een deepfake van een douchende Emma Watson stond op CelebJihad – een site met celebrity-porno die vaak gehackte naaktfoto’s post – als een “nog nooit eerder gepubliceerde video uit mijn persoonlijke collectie waar Emma Watson helemaal naakt haar geslachtsdelen laat zien en samen met een ander meisje doucht.”

Andere redditors hebben de software getraind om gezichten uit Instagram stories van beroemdheden op de lijven van porno-amateurs op Snapchat te plakken: “Ik heb echt geluk dat deze amateur hetzelfde danst als Chloe en ook vaak gekke bekken trekt,” schrijft de maker van de deepfake van actrice Chloe Bennet.

De meeste posts op r/deepfakes zijn porno, maar sommige mensen op de subreddit maken video’s die best wel grote gevolgen kunnen hebben voor de technologie. Zij kunnen met genoeg materiaal elk hoofd op geloofwaardige wijze in elke video plakken. Zo gaf redditor Z3ROCOOL22 de Argentijnse president het hoofd van Hitler:

Advertentie

Volgens deepfakeapp kan iedereen die FakeApp kan downloaden zo’n nepvideo maken met een of twee goeie video's van het gezicht dat gekopieerd moet worden. Volgens de wiki van de subreddit is FakeApp een “een door de community ontwikkelde desktopapp die het algoritme van deepfake draait zonder dat het nodig is om Python, Tensorflow, etc. te installeren.” Alles wat je nodig hebt is een “goede GPU [een graphics processing unit, je weet wel zo’n ding dat je nodig hebt om te gamen] met ondersteuning voor CUDA [NVIDIA’s platform voor parallelle verwerking].” Maar als je geen goede GPU hebt kun je ook een cloud-GPU-dienst gebruiken. Google Cloud Platform kan bijvoorbeeld het hele proces runnen, van data-extractie tot het nieuwe gezicht frame voor frame op het oude gezicht plakken. Meestal duurt dat tussen de acht en twaalf uur, maar sommige mensen melden ook dat het veel langer kan duren en dat de resultaten soms desastreus zijn.

“Als een eerbetoon aan iedereen die faalde – mijn verneukte video,” schrijft MrDrPresidentNotSure over z’n verschrikkelijk mislukte face swap:

“Had ik langer moeten trainen als dit gebeurt tijden het converteren?” vraagt yu78156853 over een mislukte poging:

Volgens deepfakeapp is de face swap van Princess Leia uit Rogue One erg goed gedaan. De FakeApp-versie en Hollywood-versie zijn amper uit elkaar te halen – tenminste in het lowres gifje.

“Ik hoop dat in de komende paar jaar gewone mensen de beschikking krijgen over dit soort machine-learningtools, zodat ze zonder veel kennis de effecten kunnen produceren die nu nog alleen door grote special-effecsbedrijven gemaakt kunnen worden,” vertelt deepfakeapp.

Advertentie

“Boven zie je de originele beelden uit Rogue One met een vreemde CGI-Carrie Fisher. Budget: 200 miljoen dollar,” schrijft derpfake over zijn creatie. “Beneden zie je een een fake die ik in 20 minuten heb gemaakt. Mijn budget: 0 dollar en een paar nummers van Fleetwood Mac.”

Een supergemakkelijk te gebruiken app om DIY-nepvideo’s te maken – van seks- of wraakporno, maar ook politieke speeches – die zich zo snel ontwikkelt, kan een waarlijke maatschappijverschuiving veroorzaken. De combinatie van opensource-onderzoek naar neurale netwerken, en een situatie waarin het moeilijk voor mensen is om echt van nep te onderscheiden, kan serieuze gevolgen hebben.

“Sociaal en cultureel is dit uitbuiting, maar ik denk dat het wel iets is dat we kunnen overleven,” zegt Jay Owens, media-analist van Pulsar , in een email. “Viralvideos en media over beroemdheden bevinden zich al op het niveau van pure ongrijpbare entertainment – dit maakt het alleen maar sexier, meme-ier en lulzier, en almaar ongeloofwaardiger.”

Deborah Johnson, emeritus hoogleraar in de toegepaste ethiek, is verbonden aan de Universiteit van Virginia. Ze vertelt me at er geen twijfel over mogelijk is dat deze technologie zo goed wordt, dat we het verschil tussen een echte video en een deepfake niet meer kunnen zien. “Je zou kunnen zeggen het meest vernieuwende is dat het nu geloofwaardig is. We kunnen niet meer onderscheiden wat echt is en wat nep – maar dat is eigenlijk ook niet nieuw,” zegt ze. “Het echte verschil is dat het nu voor iedereen beschikbaar is, en dat is behoorlijk destabiliserend.”

Dit artikel verscheen eerder op Motherboard US.