Waarom je je ogen niet kunt vertrouwen: De gevaren van deepfakes en hoe je jezelf kunt beschermen
Reading in 🇬🇧 or another language
Deepfakes is de naam die gegeven is aan video en audio die nep is, maar nauwelijks van echt te onderscheiden is, dankzij een specifieke machine learning techniek. Dit was ooit voorbehouden aan special effect-studios of inlichtingen diensten die propaganda maakten, maar vandaag de dag kan iedereen deepfake-software downloaden en steeds overtuigendere nep video's maken in de huiskamer.
Tot nu toe zijn deepfakes beperkt ingezet door mensen die de gezichten van beroemdheden op de lichamen van pornosterren zetten of om politici gekke dingen te laten zeggen. Maar het is net zo gemakkelijk om een nep waarschuwing te maken voor een aanvalsdreiging, een huwelijk te ruïneren met een nep seksvideo of een verkiezing ontregelen door een nep video of een valse geluidsbestand los te laten vlak voordat het stemmen begint.
Die potentie maakt veel mensen nerveus. Voormalig presidentskandidaat en Republikeinse senator Marco Rubio ging zelfs zover om deze technieken de moderne equivalent van kernwapens te noemen. Een paar weken geleden vertelde hij een publiek in Washington dat "als je vroeger de VS wilde bedreigen, je tien vliegdekschepen, kernwapens en raketten nodig had".
"Vandaag de dag heb je alleen internettoegang nodig, toegang tot ons banksysteem, tot het lichtnet en infrastructuur, en in toenemende mate de mogelijkheid om een realistische nep video te maken zodat je de verkiezingen kunt ondermijnen om ons land in een enorme interne crisis te storten en ons sterk verzwakken."
Laat het maar aan politici over om te overdrijven, vast deels gemotiveerd door zijn frustratie over de vorige verkiezingen. Volgens Rubio stevenen we af op een apocalyps, maar daar is niet iedereen het mee eens. "Zo erg als kernwapens? Ik denk het niet", zegt Tim Hwang van MIT Media Lab en directeur ethiek en toezicht van diens AI-initiatief tegen zustersite CSO. "De demonstraties die we hebben gezien zijn zeker verontrustend en roepen een heleboel vragen op, maar ik ben sceptisch dat het zulke game-changers zijn als veel mensen nu beweren."
Het oude adagium van "zien is geloven" geldt andersom: geloven is zien. Mensen neigen te zoeken naar informatie die strookt met wat ze willen geloven en negeren de rest. Die neiging om dissonantie te vermijden kan worden misbruikt door malafide actoren die deze menselijke eigenschap benutten. We hebben dit al gezien met desinformatie, wat we nu vaak 'nepnieuws' noemen, waarbij bewust leugens worden verspreid als de échte waarheid. Tegen de tijd dat feiten checkers de waarheid benadrukken is het al te laat en is #PizzaGate realiteit.
Deepfakes benutten dezelfde menselijke eigenschap met Generative Adverserial Networks (GAN's). Hier worden twee concurrerende machine learning-modellen ingezet: de ene wordt op een dataset getraind om slimme videomodellen te maken en de andere wordt juist ingezet om nabootsing te detecteren. De vervalser itereert versies totdat het detectie model geen nabootsing meer vindt.
Op dat moment heb je dus een model dat in ieder geval software voor de gek kan houden. Hoe groter de dataset waarop getraind wordt is, hoe makkelijker het wordt voor de vervalser om een geloofwaardige deepfake neer te zetten. Om deze reden zagen we de eerste demo's met beroemdheden en politici: daarvan is veel videomateriaal beschikbaar om mee te werken.
Kijk hoe president Richard Nixon heel slecht nieuws brengt over de Apollo 11-maanlanding in deze deepfake-video gemaakt door MIT.
Het idee van nepnieuws is verre van nieuw en was bijvoorbeeld een onderdeel van de politieke satire Wag the Dog uit 1997. In die film gebruikt een president die herkozen wil worden een nep oorlog, compleet met regie, special effecten, inzamelingsacties, een verzonnen oorlogsheld, en meer om de aandacht af te leiden van een seksschandaal. De mogelijkheid om nepnieuws te maken is nu in handen van iedereen die een laptop heeft.
GAN's hebben veel meer toepassingen dan het maken van pornovideo's of politici iets anders te laten zeggen. Deze strategie is een grote stap vooruit in een techniek genaamd 'unsupervised learning', waarbij ML-modellen zichzelf iets leren. Dit belooft grote vooruitgang voor de detectie van andere weggebruikers voor zelf rijdende auto's en om spraakassistenten een natuurlijk gesprek beter te laten nabootsen. Sommige mensen zien GAN's als het begin van verbeeldingskracht voor AI.
Gewone gebruikers kunnen direct aan de slag met FakeApp om deepfakes te maken. Het is niet heel gemakkelijk om deze app te gebruiken, maar een licht technisch aangelegd persoon zou geen moeite moeten hebben, zoals Kevin Roose demonstreerde voor de New York Times.
Dat gezegd hebbende zijn er zoveel verschillende effectieve manieren om desinformatie te verspreiden dat een focus op deepfakes de verkeerde aanpak is, vindt Hwang. "Ik denk dat er momenteel zelfs een heleboel goedkope manieren zijn om mensen te misleiden en publieke opinie te beïnvloeden, zonder dat er deep learning of machine learning aan te pas komt".
Neem bijvoorbeeld een video van een groep mensen die iemand in elkaar slaat op straat en er een misleidende verhaal om maakt - bijvoorbeeld dat de aanvallers immigranten zijn of de aanleiding iets anders is - en daar heb je geen geavanceerd ML-algoritme voor nodig, alleen een verhaal dat mensen willen geloven en een video die daarin past.
Het detecteren van deepfakes is een moeilijk probleem. Amateurs versies kunnen met het blote oog als vals worden opgemerkt. Wij zien dingen die machines niet zien, zoals een schaduw die verkeerd lijkt of een beweging die onrealistisch oogt. GAN's worden steeds beter en de tijd zal binnenkort aanbreken dat we digitale forensische methodes zullen moeten inzetten, áls we al nepperds kunnen detecteren. Aan de andere kant zijn er methoden die de manier waarop menselijke hersenen interpreteren omzeilen om deepfakes juist op te merken.
Het is zo'n lastig issue dat militair onderzoeksinstituut DARPA geld heeft uitgetrokken om onderzoekers te motiveren om manieren te bedenken om de authenticiteit van video's vast te stellen. Maar omdat GAN's hier weer van leren en zich aanpassen op de detectiemethoden, is het maar de vraag of deze strijd te winnen valt.
"In theorie is het zo dat als je een GAN alle technieken geeft die wij gebruiken om te detecteren, het manieren vindt om deze te omzeilen", zei DARPA-chef David Gunning die het project leidt tegen MIT Technology Review. "We weten niet of er een limiet is. Dat is onduidelijk."
Critici waarschuwen dat als we nep video's niet kunnen opmerken, we niet anders kunnen dan twijfelen aan alles wat we zien en horen. Internet zit nu in alle facetten van ons leven en de onmogelijkheid om de bron van informatie te kunnen duiden zou volgens sommigen leiden tot het 'einde van de waarheid'.
Dat is geen dreiging voor alleen ons politieke systeem, maar voor ons idee van een objectieve realiteit. Als we het er niet eens over kunnen worden wat echt is en wat niet, hoe kunnen we dan nog discussiëren over politiek en beleid, zo zeggen doemdenkers. Maar ook daar is niet iedereen het mee eens.
MIT's Hwang denkt dat dit een overdrijving is. "Dat is een van mijn grootste kritiekpunten: ik zie geen mystieke drempel die we oversteken waarna we geen onderscheid meer kunnen aanbrengen in realiteit en fictie." Uiteindelijk is de hype omtrent deepfakes wellicht onze beste bescherming: we raken ervan bewust dat een video vervalst kan zijn en dat haalt de angel uit deepfakes.
Deepfake exposure is misbruik in foto's en niet zomaar misbruik in foto's, nee het kan zo maar zijn dat jouw foto's worden gepost in een groep van mensen die jij niet kent. De foto's worden bewerkt tot seksuele foto's en vervolgens gaan jouw foto's zonder dat je het weet de hele wereld over.
Sven ging undercover en nam een kijkje in deze bizarre wereld van het seksueel online misbruik met het nieuwe fenomeen 'deepfake exposure'.
Sven stuitte op een internetgroep waarbij het maar om een ding gaat, namelijk om het misbruiken van foto's. Er zijn groepen met leden die punten moeten verzamelen en dit doe je door foto's te delen met je groepsgenoten van vrouwen.
Deze foto's worden van social media afgehaald zonder dat de vrouwen daar weet van hebben, deze worden vervolgens gephotoshopt door andere leden tot een seksuele foto. Het is dus een normale foto en de leden bewerken het tot een seksuele foto, hoe beter de foto, hoe meer punten, je krijgt zo gegeten ‘karma’ punten wat de status in de groep verhoogd, daarnaast worden foto's uitgeprint door leden uit de groep die vervolgens met die uitgeprinte foto seksuele handelingen verrichten, dit filmen ze of fotograferen ze om ze vervolgens weer in deze groepen te posten. Hoe meer informatie je over de foto meldt hoe meer punten je vaak ook krijgt, zo kan het dus zijn dat je echte naam erbij wordt genoemd, waar je werkt en andere persoonlijke informatie.
Kort gezegd zonder dat je het misschien zelf weet ben je slachtoffer van seksueel online misbruik.
Reading in 🇬🇧 or another language
Deepfake-video's worden steeds populairder en daarmee neemt het gevaar voor misbruik toe. Onderzoekers van de Tilburg University onderzochten hoe het nieuwe kabinet dit kan tegengaan. Bart van der Sloot, privacy- en big data-expert en Associate Professor bij Tilburg University voorziet dat dat flink wat problemen gaat opleveren.
Onderzoekers van 'Sensity' hebben een nieuw deepfake-ecosysteem ontdekt op het berichtenplatform Telegram.
‘Het lot heeft bepaald dat de mannen die de maan in vrede gingen verkennen, nu op de maan in vrede zullen rusten’, zie je Richard Nixon vertellen over het eerste duo op de maan. En het lijken net echte historische beelden.
'Deepfake Ransomware' is een aanval waarbij een cybercrimineel een selectie van een reeks afbeeldingen neemt die mensen online plaatsen, om ze om te zetten in beschamende of schandalige video’s.