Tech kan deepfakes niet meer tegenhouden

FYI.

This story is over 5 years old.

Tech

Tech kan deepfakes niet meer tegenhouden

Veel geld investeren om AI-gegenereerde fake porno en andere video's tegen te gaan lijkt een goed idee. Maar het is een te klein verbandje op een hele grote wond.

Iedere dag stuurt Google Alerts me een mailtje waarin alle recente artikelen staan die het trefwoord ‘deepfake’ bevatten. In sommige stukken wordt beweerd dat deepfakes een oorlog zouden kunnen aanwakkeren, andere laten zien op welke domme manieren Hollywood nu weer gebruik heeft gemaakt van faceswaptechnologie. Deze reactie van de media past perfect in de tijdsgeest van 2018. Toch vergeet deze verslaggeving vaak juist dat te benoemen waar we het meest bang voor zouden moeten zijn: een cultuur waarin mensen massaal voor de gek worden gehouden, om dingen te geloven die helemaal niet waar zijn – iets wat bijvoorbeeld kan worden gedaan met video’s van iets dat helemaal nooit gebeurd is.

Advertentie

Negen maanden geleden stuitte Motherboard op een gast die onder de gebruikersnaam ‘deepfakes’ pornovideo’s op Reddit plaatste. Maar het waren niet zomaar pornovideo’s: de video’s werden gemaakt met een machine-learingalgortime, en maakten gebruik van faceswapping om het idee te geven dat je naar een video van een beroemdheid zat te kijken. Zoals je kan verwachten van het internet, gingen mensen direct met dit idee aan de haal. Als een of andere nerd in staat was om een nepvideo te maken van Gal Gadot die seks heeft met haar stiefbroer, kan hij natuurlijk ook nepvideo’s van Barack Obama, Donald Trump en Kim Jong-un maken, om een internationale rel te veroorzaken die weer tot een nucleaire oorlog leidt. Nepvideo’s zouden op deze manier zo’n rampzalig effect op de wereldwijde politiek kunnen hebben, dat de Amerikaanse regering nu zelfs onderzoek financiert om deze video’s uiteindelijk automatisch te kunnen detecteren.

De Media Forensics-afdeling van de Amerikaanse Defense Advances Research Projects Agency (DARPA) bood de non-profit onderzoeksgroep SRI International in april dit jaar drie contracten aan om manieren te vinden waarop digitale videomanipulaties automatisch kunnen worden opgespoord. Onderzoekers aan de Universiteit van Albany werden door DARPA gefinancierd om deepfakes te bestuderen, en ontdekten dat er onderscheid kan worden gemaakt tussen een deepfake en een onbewerkte video door het knipperen van mensenogen in de video’s te bestuderen.

Advertentie

Een nucleaire oorlog is natuurlijk het allerergste doemscenario dat door deze video’s in gang gezet kan worden, maar laten we ook vooral de problemen die het op dit moment met zich meebrengt niet vergeten. In het huidige digitale tijdperk zijn mediageletterdheid en de zeggenschap over je eigen fysieke en digitale lichaam in gevaar, wat door deepfakes alleen nog maar wordt verergerd. In vergelijking met de angst voor een nucleaire oorlog, zijn deze huidige problemen lang niet zo vergezocht of theoretisch. Zal iemand binnenkort een nepvideo maken waarin Donald Trump de oorlog verklaart aan Noord-Korea, waardoor we uiteindelijk allemaal het loodje leggen? Misschien. Maar het einde van de mensheid is slechts het meest extreem denkbare. Toch krijgt dit vergezochte gevolg veel meer aandacht dan het feit dat vrouwenlichamen in deze deepfakes worden misbruikt. Is het op dit moment niet veel belangrijker om te kijken waarom de mensen die deepfakes produceren het idee hebben dat ze dit ongestraft kunnen doen?

Als we de achterliggende sociale problemen niet aanpakken, zijn de technische oplossingen van DARPA niet meer dan een kleine pleister op een gigantische wond. Bovendien is het lastig te zeggen of hun opsporingstechnieken uiteindelijk blijken te werken.

Om een geloofwaardige deepfake te maken, heb je een dataset nodig die bestaat uit honderden of duizenden foto’s van het gezicht van de persoon die je in de video probeert te verwerken. In de oplossing van de onderzoekers aan de University of Albany wordt ervan uitgegaan dat deze dataset waarschijnlijk niet genoeg foto’s bevat waarop de persoon in kwestie knippert. Het resultaat is dus een nepvideo die er overtuigend uitziet, maar waarin mensen niet op een natuurlijke manier met hun ogen knipperen.

Advertentie

Helaas geven de onderzoekers zelf ook toe dat dit niet de meest betrouwbare manier is om deepfakes te herkennen. Siwei Lyu, hoogleraar aan de State University of New York at Albany, legde aan MIT Technology Review uit dat een goede deepfake aan deze detectietool kan ontkomen door simpelweg foto’s aan de dataset toe te voegen waarop de persoon wel met zijn of haar ogen knippert.

Lyu zei hierna wel dat hij en zijn team een nog betere techniek hebben bedacht waarmee deepfakes kunnen worden opgespoord, maar weigerde te delen hoe deze precies werkt. “Ik hou het liever nog even geheim,” zei Lyu. “We zijn de vervalsers nu net iets te slim af. Dat willen we zo houden.”

Wat Lyu zegt, laat direct het bredere probleem zien waar je op stuit als je naar een technische oplossing voor deepfakes zoekt: zodra iemand een manier vindt om deepfakes automatisch te herkennen, is er altijd wel iemand anders die bedenkt hoe je dit kunt omzeilen. Steeds meer platformen komen erachter dat het lang niet zo makkelijk is om een bepaald trefwoord te blokkeren of een forum te verbannen, om te voorkomen dat er nepporno op hun sites verschijnt. Beeldhost Gfycat dacht bijvoorbeeld dat ze geautomatiseerde tools kunnen gebruiken om AI-gegenereerde video’s te herkennen en verwijderen. Maar maanden na dit te hebben aangekondigd, staat de site nog steeds vol deepfakes

Op deze manier zullen beide partijen hun algoritmes steeds zo blijven aanpassen, dat er uiteindelijk een kat-en-muisspel ontstaat waarbij de een de ander te slim af probeert te zijn. Zodra er een herkenningsstechniek wordt bedacht (zoals het knipperen van de ogen) zal de ander hiervan leren en erop inspelen. Dit hebben we al eens zien gebeuren bij bots die steeds beter worden in het oplossen van CAPTCHA’s. Op hun beurt maken de botherkenningsystemen CAPTCHA’s die nog moeilijker op te lossen zijn. Uiteindelijk kraken de bots deze ook, waardoor het spelletje oneindig door blijft gaan.

Advertentie

Dit betekent niet dat we de handdoek in de ring moeten gooien en moeten stoppen met het zoeken naar een oplossing voor ingewikkelde problemen zoals deepfakes. Het betekent juist dat we de beperkingen van deze oplossingen moeten erkennen en beter ons best moeten doen om mensen voor te lichten over technologie en media. Alleen zo kunnen we mensen leren wanneer ze kunnen geloven wat ze zien, en wanneer het beter is om sceptisch te zijn.

De Amerikaanse politicus Marco Rubio sloeg de spijker op de kop toen hij vorige maand over deepfakes sprak tijdens een panel van de Heritage Foundation: “Ik denk dat nieuwsmedia de video’s uiteindelijk alsnog zullen delen, met onderaan een disclaimer waarin ze zeggen dat ze contact hebben opgenomen met de persoon in kwestie, maar dat diegene ontkende de persoon in de video te zijn,” zei hij, in een gesprek over welk hypothetisch scenario deepfakes zouden kunnen veroorzaken. “Maar het overgrote deel van de mensen die de beelden op televisie zien, zullen alsnog geloven dat het waar is.”

Nepnieuws is niets nieuws, kwaadaardige AI is niets nieuws, maar de combinatie van die twee zal ons realiteitsgevoel steeds meer in de weg komen te staan. Zeker nu ons vertrouwen in de media al zo wankel is.

Dit klinkt misschien paranoïde, maar dat is het niet. Als mensen al zo goedgelovig zijn dat ze meegaan in complottheorieën (en zelfs bij Trump-demonstraties verschijnen met borden en shirts waarop ze aangeven QAnon te steunen) hebben we helemaal geen kunstmatige intelligentie nodig om mensen overal in te laten trappen.

Het eerste stuk dat we in december vorig jaar over deepfakes deelden, heette ‘De AI die neppornofilms met beroemdheden maakt is te goed.’ En hoewel er steeds meer manieren worden bedacht om deze nepporno te herkennen, blijven de makers dit keer op keer te slim af. We zeiden het vorig jaar al en we zeggen het nog steeds: Dit is behoorlijk verontrustend. Niet omdat deepfakes tot een nucleaire oorlog kunnen leiden, maar omdat er zoveel andere problemen zijn die we moeten aanpakken voor we ons druk kunnen maken om het herkennen van AI-gegenereerde nepporno.

We moeten bedenken hoe platformen ervoor kunnen zorgen dat gebruikers AI niet langer op zulke kwaadaardige manieren inzetten, en een manier vinden om wraakporno in het algemeen te stoppen. We moeten serieus gaan nadenken over wat het betekent om de rechten over je eigen lichaam te hebben, en hoe ons fysieke lichaam in verhouding staat tot ons online lichaam. We moeten beseffen dat als mensen meteen geloven wat ze zien, het bestempelen van een video als nep ze niet van gedachten zal laten veranderen. Als je wil dat Obama racistische dingen zegt voor de camera, zal je geloven dat het waar is als je het ziet – of hij nou met zijn ogen knippert of niet.

DARPA kan ons niet redden. Nieuwe technologie gaat ons ook niet redden. Maar kritischer zijn tegenover wat we voorgeschoteld krijgen misschien wel. Helaas is dat een stuk lastiger aan te passen dan een AI-algoritme.

Volg Motherboard op Facebook, Twitter en Flipboard.