'Deepfake Ransomware' is een aanval waarbij een cybercrimineel een selectie van een reeks afbeeldingen neemt die mensen online plaatsen, om ze om te zetten in beschamende of schandalige video’s.
Aanvallers zijn bij deze vorm van cybercrime in staat om een dergelijke video te maken door het uiterlijk en hoe de stem van het doelwit klinkt te simuleren. Vervolgens vragen de aanvallers om losgeld (ransom) in ruil voor het niet uploaden van de video. De video kan bijvoorbeeld pornografie of gewelddadig gedrag bevatten, dat gesimuleerd is.
Dit stelden VP of security research Rick Ferguson en director of forward-looking threat research Robert McArdle tijdens Claudes 2019, schrijft IT Pro. De video’s kunnen mogelijk het einde betekenen voor een carrière, waardoor de aanvallers mogelijk politici op het oog hebben.
Nancy Pelosi
Dat is al eens gebeurd, aldus de twee beveiligingsonderzoekers. De Amerikaanse Democrate Nancy Pelosi was toen het slachtoffer. Er werd een video van haar gemaakt waarbij haar spraak vertraagd was, waardoor het klonk alsof ze dronken of dement was. De video had schadelijke gevolgen. “Politici betalen dus waarschijnlijk het losgeld voor dit soort dingen.”
"En we hebben twee weken geleden één groep gezien die Deepfake geluid gebruikte om geld over te laten boeken," waarbij "Ze iemand belden en zeiden dat ze de CEO waren kun je 234.000 euro overboeken . Dus dit soort dingen wordt steeds realistischer."
Deepfake ransomware
Het probleem met 'Deepfake ransomware' is dat er tegenwoordig weinig aan fact-checking gedaan wordt. Als een video geplaatst wordt, is de schade al berokkend, ongeacht of later blijkt dat de video nep is. “We zeiden altijd ‘op het internet weet niemand dat je een hond bent’”, vertelt Ferguson. “We komen nu snel dichterbij een toekomst waar het alleen is ‘op het internet weet niemand iets’. Je kunt je ogen en oren niet meer geloven.”
Region en McArdle denken verder dat kunstmatige intelligentie (AI) de manier waarop cyberaanvallen werken in de toekomst aan kunnen passen, zeker met threat modelling.
Volgens de onderzoekers denkt iedereen anders, en vinden mensen dus verschillende manieren om een voorgeschoteld probleem op te lossen. Dat geldt ook voor 'AI' als het manieren zoekt om computersystemen te exploiteren. De technologie kan naar een systeem kijken en complexe kwetsbaarheden vinden die mensen mogelijk nooit hadden gevonden.
“Als dit gebruikt wordt door de aanvaller heb je snellere en effectievere aanvallen”, aldus Ferguson. “De aanvallen gebeuren op machinesnelheid, de tactieken veranderen op machinesnelheid en de malafide code die draait is op de hoogte van de context waarin het draait, waardoor het zich in real-time aan kan passen en zijn gedrag kan veranderen.”
Bron: itpro, techzine, trend