‘Het lot heeft bepaald dat de mannen die de maan in vrede gingen verkennen, nu op de maan in vrede zullen rusten’, zie je Richard Nixon vertellen over het eerste duo op de maan. En het lijken net echte historische beelden.
MIT en Mozilla willen dat mensen de verontrustende kracht van deepfake-video's beter begrijpen in een nieuw project genaamd 'In Event of Moon Disaster'
Kijk hoe president Richard Nixon heel slecht nieuws brengt over de Apollo 11-maanlanding in deze deepfake-video gemaakt door MIT.
Apollo 11 maanlanding
De maanlanding van Apollo 11 op 20 juli 1969 was een mijlpaal in de ruimtegeschiedenis. Maar wat als de astronauten stierven tijdens hun missie naar de maan en president Richard Nixon tragisch nieuws op tv moest brengen aan het Amerikaanse kijkerspubliek?
In deze verontrustend echte deepfake- video breekt president Nixon het nieuws dat NASA heeft gefaald en dat astronauten op de maan zijn gestorven. Deepfakes zijn video-vervalsingen waardoor mensen lijken te doen of dingen zeggen die ze niet zijn. Deepfake-software heeft gemanipuleerde video's toegankelijk gemaakt en steeds moeilijker te detecteren als nep.
'Het lot heeft bepaald dat de mannen die naar de maan zijn gegaan om in vrede te verkennen, op de maan zullen blijven om in vrede te rusten', zegt Nixon in de deepfake-video die verwijst naar astronauten Neil Armstrong, Buzz Aldrin en Michael Collins .
Het duurde een half jaar voordat de AI-experts van het Massachusetts Institute of Technology een zeer overtuigende 7 minuten durende deepfake-video maakten die feitelijk NASA-beeldmateriaal combineert met Nixon die een tragische toespraak hield , alsof Apollo 11 niet was geslaagd in zijn missie naar de maan.
Deep-learning
Kunstmatige intelligentie "deep-learning" -technologie werd gebruikt om Nixons stem- en gezichtsbewegingen overtuigend te maken. De contingentie toespraak (te vinden in het Nationaal Archief ) werd voorgelezen door een acteur.
MIT's Center for Advanced Virtuality creëerde zijn nieuwe project genaamd 'In Event of Moon Disaster' - dat op maandag werd gelanceerd - om mensen te laten zien welke gevaarlijke invloed deepfake-video's kunnen hebben op een nietsvermoedend publiek.
Dit is de eerste keer dat de Nixon Apollo 11 deepfake-video in zijn geheel aan het publiek wordt gepresenteerd na een fysieke kunstinstallatie op MIT in de herfst van 2019.
"In Event of Moon Disaster is een meeslepend kunstproject dat je uitnodigt in een alternatieve geschiedenis en ons allemaal vraagt om na te denken over hoe nieuwe technologieën de waarheid om ons heen kunnen buigen, omleiden en verdoezelen", aldus de website van het project. "Door deze alternatieve geschiedenis te creëren, onderzoekt het project de invloed en de alomtegenwoordigheid van verkeerde informatie en deepfake-technologieën in onze hedendaagse samenleving."
In Event of Moon Disaster wil mensen niet alleen deepfakes beter begrijpen, maar ook uitleggen hoe deepfakes worden gemaakt en hoe ze werken; hoe je een deepfake kunt herkennen ; hun potentieel gebruik en misbruik; en wat er wordt gedaan om deepfakes en desinformatie te bestrijden.
Dit project wordt ondersteund door een subsidie van Mozilla's Creative Media Awards , die voortbouwen op de missie van Mozilla om meer betrouwbare AI in consumententechnologie te realiseren.
Onderwijs en bewustwording
De video "In Event of Moon Disaster" als casuïstiek benadrukt de gevaren van desinformatie en het belang van betrouwbare media voor het behoud van de democratie. Deze zorgen zijn actueler en relevanter voor studenten dan ooit. In een tijdperk van toenemend autoritair populisme, begeleidende acties tegen legitieme journalistieke verkooppunten en de roep om burgerlijke en raciale rechtvaardigheid, hebben burgers behoefte aan geloofwaardige informatie en een beter begrip van hoe ze met deze gefragmenteerde mediaomgeving moeten omgaan.
Hoewel initiatieven op het gebied van mediageletterdheid sterk variëren tussen middelbare scholen en hogescholen, richten ze zich meestal op een constellatie van interpretatieve praktijken, waardoor studenten de tools krijgen die nodig zijn om te onderzoeken hoe verschillende vormen van media worden gemaakt, gebruikt en geïnterpreteerd.
Bron: cnet, moondisaster
Gerelateerde berichten
Waarom je je ogen niet kunt vertrouwen: De gevaren van deepfakes en hoe je jezelf kunt beschermen
Reading in 🇬🇧 or another language
Deepfakes kunnen op termijn de samenleving ontwrichten
Deepfake-video's worden steeds populairder en daarmee neemt het gevaar voor misbruik toe. Onderzoekers van de Tilburg University onderzochten hoe het nieuwe kabinet dit kan tegengaan. Bart van der Sloot, privacy- en big data-expert en Associate Professor bij Tilburg University voorziet dat dat flink wat problemen gaat opleveren.
Nieuwe evolutie ontdekt op het beruchte 'DeepNude'
Onderzoekers van 'Sensity' hebben een nieuw deepfake-ecosysteem ontdekt op het berichtenplatform Telegram.
Deepfake het nieuwe gevaar van desinformatie: 'Nixon' die NASA Apollo 11-ramp aankondigt
‘Het lot heeft bepaald dat de mannen die de maan in vrede gingen verkennen, nu op de maan in vrede zullen rusten’, zie je Richard Nixon vertellen over het eerste duo op de maan. En het lijken net echte historische beelden.
'Deepfake Ransomware' is één van de meest gevreesde toekomstige cyberdreigingen
'Deepfake Ransomware' is een aanval waarbij een cybercrimineel een selectie van een reeks afbeeldingen neemt die mensen online plaatsen, om ze om te zetten in beschamende of schandalige video’s.
Meer nieuws
Slachtofferanalyse en Trends van Week 48-2024
Reading in 🇬🇧 or another language
Nieuwsbrief 342 Cybercrimeinfo (ccinfo.nl)
Reading in 🇬🇧 or another language
Gevangenisblauwdrukken gelekt op het darkweb: gevolgen voor nationale veiligheid
Reading in 🇬🇧 or another language
Vraag van de week: Slim speelgoed - Hoe veilig zijn de digitale speeltjes voor onze kinderen?
Reading in 🇬🇧 or another language
De nearest neighbor-aanval: een nieuwe tactiek in cyberdreigingen
Reading in 🇬🇧 or another language
Phishing-as-a-service: de nieuwe dreiging voor bedrijven en gebruikers met 2FA
Reading in 🇬🇧 or another language
Assendelft - Helpdesk fraude
Reading in 🇬🇧 or another language
Slachtofferanalyse en Trends van Week 47-2024
Reading in 🇬🇧 or another language
Nieuwsbrief 341 Cybercrimeinfo (ccinfo.nl)
Reading in 🇬🇧 or another language
De Russische digitale drugsmarkt: Hoe technologie de onderwereld beheerst
Reading in 🇬🇧 or another language
Noord-Korea’s cyberstrategie: Van cryptocurrency-diefstal tot technologische spionage
Reading in 🇬🇧 or another language
Online fraude in 2024: Hoe cybercriminelen steeds slimmer te werk gaan
Reading in 🇬🇧 or another language
Heeft u tips of verdachte activiteiten gezien online? Neem dan contact op met de politie. Telefonisch via het nummer 0900-8844 of online via het meld formulier. Uiteraard kunt u daarnaast ook tips melden bij Cybercrimeinfo.