In deze podcast bespreken we het artikel “Generatieve AI: De nieuwe uitdaging voor cyberveiligheid”, geschreven door de Algemene Inlichtingen- en Veiligheidsdienst (AIVD) en de Rijksinspectie Digitale Infrastructuur (RDI). Het artikel beschrijft de impact van generatieve AI op cybersecurity, waarbij wordt gesteld dat generatieve AI een “gamechanger” is, omdat het nieuwe en complexe cyberaanvallen mogelijk maakt. We introduceren het “AI Cybersecurity Kwadrant”, een model dat de risico’s en kansen van generatieve AI analyseert, met een focus op aanvallen met en tegen AI, en verdediging met en van AI. De auteurs benadrukken het belang van proactieve cybersecurity-strategieën om de snelle ontwikkelingen op het gebied van generatieve AI bij te houden.
De snelle ontwikkeling van generatieve kunstmatige intelligentie (AI) heeft niet alleen positieve toepassingen, maar brengt ook nieuwe en complexe dreigingen met zich mee op het gebied van cybersecurity. Generatieve AI, die in staat is om nieuwe inhoud te creëren, zoals teksten, afbeeldingen, video’s en zelfs programmeercode, verandert het landschap van cyberbeveiliging ingrijpend. De technologie wordt zowel door bedrijven als door kwaadwillende actoren steeds vaker ingezet, en dit vraagt om een fundamenteel nieuwe benadering van cybersecurity. Dit benadrukken de Algemene Inlichtingen- en Veiligheidsdienst (AIVD) en de Rijksinspectie Digitale Infrastructuur (RDI) in hun recente gezamenlijke publicatie.
Waarom generatieve AI een gamechanger is voor cybersecurity
Generatieve AI onderscheidt zich van traditionele technologieën door een aantal unieke eigenschappen. De AIVD en RDI wijzen erop dat generatieve AI niet alleen in staat is om bestaande informatie te analyseren, maar ook nieuwe informatie te creëren. Dit maakt de technologie zeer krachtig en veelzijdig, maar ook potentieel gevaarlijk als het in verkeerde handen valt. In hun publicatie noemen de AIVD en RDI vier belangrijke eigenschappen van generatieve AI die deze technologie zo transformatief maken voor cybersecurity:
- Complexiteit en snelheid
Generatieve AI kan cyberaanvallen veel sneller en complexer maken dan voorheen mogelijk was. Dit betekent dat cybercriminelen in staat zijn om zeer geavanceerde aanvallen uit te voeren met relatief weinig middelen. Traditionele beveiligingssystemen kunnen moeite hebben om bij te blijven met de snelheid waarmee deze aanvallen zich ontwikkelen. Voorheen waren dergelijke aanvallen het domein van statelijke actoren, maar nu zijn ook kleinere criminele groepen in staat om vergelijkbare aanvallen op te zetten.
- Buitengewone personalisatie
Aanvallen kunnen door middel van AI volledig worden gepersonaliseerd. Dit betekent dat phishing-aanvallen, een veelvoorkomende aanvalstechniek, specifieker en daardoor overtuigender kunnen worden. Cybercriminelen kunnen bijvoorbeeld informatie van sociale media en andere openbare bronnen gebruiken om op maat gemaakte aanvallen op individuen of organisaties te richten.
- Schaalbaarheid
Generatieve AI stelt kwaadwillenden in staat om aanvallen op een ongekende schaal uit te voeren. Waar voorheen grote middelen nodig waren om een uitgebreide aanval op te zetten, kunnen cybercriminelen met generatieve AI een veel grotere impact hebben met minder middelen. Dit betekent dat organisaties te maken krijgen met grotere en meer complexe dreigingen.
- Autonomie
Een van de meest ingrijpende kenmerken van generatieve AI is de mogelijkheid om zelfstandig beslissingen te nemen en taken uit te voeren zonder menselijke tussenkomst. AI-systemen kunnen bijvoorbeeld zelf taken opdelen in subtaken en deze efficiënter uitvoeren. Hoewel dit de efficiëntie kan verhogen, vergroot het ook de kans op onverwachte of ongewenste gedragingen.
Het AI Cybersecurity Kwadrant: Een analysekader voor nieuwe dreigingen
Om de uitdagingen en kansen van generatieve AI beter te begrijpen, hebben de AIVD en RDI het AI Cybersecurity Kwadrant ontwikkeld. Dit model biedt organisaties en overheden een handvat om de risico’s en mogelijkheden van generatieve AI te analyseren. Het kwadrant is gebaseerd op twee assen: de eerste as richt zich op het gebruik van generatieve AI als middel of doelwit van een aanval, en de tweede as behandelt de rol van AI in verdediging of aanval.
- Aanvallen met generatieve AI
In het linker gedeelte van het kwadrant vinden we aanvallen waarbij generatieve AI wordt ingezet om cyberaanvallen uit te voeren. Deze aanvallen kunnen bijvoorbeeld gebruikmaken van deepfakes, waarbij nepvideo’s of -audio worden gecreëerd om mensen of systemen te misleiden. Denk aan CEO-fraude, waarbij deepfake-technologie wordt gebruikt om de stem van een leidinggevende te imiteren en werknemers te misleiden tot het overmaken van geld.
Een ander voorbeeld is het personaliseren van phishing-aanvallen, waarbij AI wordt ingezet om op grote schaal overtuigende e-mails te genereren die specifiek zijn afgestemd op de ontvanger. Daarnaast kunnen AI-gebaseerde systemen automatisch zoeken naar kwetsbaarheden in netwerken en systemen, waardoor het eenvoudiger wordt om deze te penetreren.
- Aanvallen op generatieve AI
Een ander aandachtspunt binnen het kwadrant is de kwetsbaarheid van AI-systemen zelf. Generatieve AI kan het doelwit zijn van aanvallen, zoals adversarial attacks, waarbij kwaadwillenden proberen de AI-systemen te manipuleren om ongewenst gedrag te vertonen. Een voorbeeld hiervan is het aanpassen van de trainingsdata van een AI-systeem, waardoor het model verkeerde beslissingen maakt of zelfs misbruikbaar wordt door de aanvaller. De complexiteit en ondoorzichtigheid van AI-systemen maken het moeilijk om te detecteren wanneer zulke aanvallen succesvol zijn geweest.
- Verdediging met generatieve AI
Aan de verdedigende kant biedt generatieve AI ook nieuwe mogelijkheden. AI kan worden ingezet om netwerken te monitoren en cyberaanvallen sneller te detecteren dan menselijke beveiligingsteams dat kunnen. Door grote hoeveelheden data te analyseren en patronen te herkennen, kan AI bijvoorbeeld verdacht gedrag in real-time signaleren en organisaties waarschuwen voordat een aanval volledig is uitgevoerd. Daarnaast kan generatieve AI worden gebruikt om automatische responsacties uit te voeren, waardoor de snelheid en effectiviteit van incidentrespons wordt verhoogd.
- Verdediging van generatieve AI
Het beschermen van AI-systemen tegen aanvallen is een andere belangrijke uitdaging. Dit omvat niet alleen het beschermen van de gebruikte data en algoritmes, maar ook het waarborgen van de integriteit van de systemen zelf. Aangezien AI-systemen steeds meer taken zonder menselijke tussenkomst uitvoeren, is het van cruciaal belang dat organisaties ervoor zorgen dat deze systemen veilig en betrouwbaar blijven functioneren.
De risico’s van afhankelijkheid van AI-systemen
Een bijkomend risico van het gebruik van generatieve AI in cybersecurity is de afhankelijkheid van externe leveranciers. Veel generatieve AI-modellen zijn ontwikkeld door internationale bedrijven, waardoor organisaties kwetsbaar kunnen worden voor risico’s zoals vendor lock-in of privacyproblemen. De Europese AI-verordening, die specifiek gericht is op het reguleren van de inzet van AI binnen de EU, is een belangrijke stap in het waarborgen van de veiligheid en ethiek van AI-systemen. Echter, veel van de geavanceerde AI-modellen komen momenteel uit niet-Europese landen, waar deze verordening niet van toepassing is.
De AIVD en RDI benadrukken dat organisaties voorzichtig moeten zijn bij het kiezen van AI-oplossingen en ervoor moeten zorgen dat ze de controle behouden over de data en functionaliteiten van deze systemen. Het is belangrijk om voortdurend risicoanalyses uit te voeren en te investeren in zowel technologische als menselijke expertise om de cyberweerbaarheid te waarborgen.
Conclusie: Generatieve AI vraagt om een proactieve aanpak
Generatieve AI heeft de potentie om de wereld van cybersecurity ingrijpend te veranderen. Hoewel de technologie nieuwe mogelijkheden biedt voor zowel aanvallen als verdediging, brengt het ook nieuwe risico’s en uitdagingen met zich mee. De AIVD en RDI onderstrepen dat organisaties hun beveiligingsstrategieën moeten herzien en aanpassen om deze nieuwe dreigingen het hoofd te bieden. Het AI Cybersecurity Kwadrant biedt hierbij een nuttig analysekader om de risico’s en kansen van generatieve AI beter te begrijpen.
Organisaties moeten proactief blijven door voortdurend te investeren in kennis en technologie, en door regelmatig risicoanalyses uit te voeren. Alleen zo kunnen zij zich wapenen tegen de snel evoluerende dreigingen die generatieve AI met zich meebrengt. Generatieve AI zal zich in hoog tempo blijven ontwikkelen, en cybersecurity moet in hetzelfde tempo mee evolueren om deze dreigingen het hoofd te bieden.
Ontdek meer over cybercrime en het darkweb in onze uitgebreide bibliotheek. Voor een gestructureerd overzicht van relevante onderwerpen kun je terecht op onze onderwerpenpagina, waar je een alfabetisch gerangschikte lijst vindt.