
23 maart 2025
AI slaapt niet, twijfelt niet en kent geen grenzen. Dat maakt het een krachtig hulpmiddel – en een gevaarlijk wapen. Cybercriminelen maken steeds vaker gebruik van AI om aanvallen te versnellen, verfijnen en op te schalen. Denk aan razendsnelle social engineering, automatisch gegenereerde phishingmails in elke gewenste taal en het omzeilen van traditionele detectiemethoden.
In dit artikel laten we zien hoe AI door kwaadwillenden wordt ingezet, en waarom we deze opkomende dreiging serieus moeten nemen.
Generatieve AI – ook wel “GenAI” – maakt identiteitsfraude stukken eenvoudiger. Denk aan deepfakes (nepvideo’s) en deepvoices (nagebootste stemmen). Ooit alleen te zien in Hollywoodfilms, maar nu voor iedereen toegankelijk en steeds realistischer. Wat begon als vermaak met nep-Tom Cruises of Keanu Reeves, is inmiddels serieuze business voor cybercriminelen. Zo leidde een deepfake van een financieel directeur in 2024 tot een miljoenenfraude van 25 miljoen dollar.
AI wordt ook ingezet voor het verspreiden van desinformatie en verandert het internet in een slagveld van informatieoorlogen, met echo’s van geopolitieke en economische conflicten.
Een bekende aanvalsmethode is prompt injection: het manipuleren van AI-modellen met kwaadaardige invoer. Door slim gebruik van taal proberen aanvallers de ingebouwde veiligheidsfilters te omzeilen.
Ook in de ontwerpfase van een AI-model kunnen kwetsbaarheden worden ingebouwd, bijvoorbeeld via data poisoning. Door bewust verkeerde data in de trainingsset te stoppen, ontstaan achterdeurtjes die later misbruikt kunnen worden. Zo kunnen er ook morele of ideologische vooroordelen in het model sluipen.
Zelfs tijdens de inzet van het model kunnen plug-ins of externe databronnen nieuwe risico’s introduceren.
En dan zijn er nog de zogeheten Dark LLM’s, zoals WormGPT, FraudGPT of WolfGPT – speciaal getraind voor kwaadaardige doeleinden. Deze modellen helpen cybercriminelen bij phishing, frauduleuze leningen, schadelijke code en het bouwen van nepwebsites.
Gelukkig staat AI ook aan onze kant. Voor securityprofessionals is AI een waardevol hulpmiddel dat zorgt voor snellere detectie, betere signalering en slimmere besluitvorming.
AI maakt het mogelijk om dag en nacht verdachte activiteiten op netwerken te analyseren. Door razendsnelle verwerking van enorme hoeveelheden data uit verschillende bronnen (zoals logbestanden, netwerkverkeer en databases), kan AI afwijkingen herkennen, malware opsporen en pogingen tot datadiefstal tijdig stoppen.
Ook e-mailverkeer wordt door AI gescand op phishingaanvallen, waarmee gebruikers sneller gewaarschuwd worden.
AI leert continu bij en past zich aan nieuwe dreigingen aan. Daarmee wordt cybersecurity steeds meer proactief in plaats van reactief. Predictive AI maakt gebruik van historische data, statistische modellen en machine learning om toekomstige aanvallen te voorspellen en te voorkomen. Zo kunnen beveiligingsteams eerder ingrijpen.
Dankzij AI kunnen securityanalisten sneller en effectiever reageren. AI helpt onderscheid maken tussen echte dreigingen (true positives) en valse meldingen (false positives).
Generatieve AI-assistenten kunnen een grote rol spelen binnen een SOC (Security Operations Center). Een slimme AI kan tickets automatisch koppelen aan eerder incidenten, de ernst inschatten en aanbevelingen doen voor vervolgacties. Een systeem van meerdere gespecialiseerde AI’s kan zelfs verschillende databronnen combineren – van ticketing tot threat intelligence en endpoint detection – om een compleet beeld te geven.Ook klantfeedback en grote hoeveelheden irrelevante meldingen kunnen met behulp van AI snel worden gesorteerd en verwerkt.
Bij Orange Cyberdefense geloven we in de combinatie van menselijke intelligentie, cyber threat intelligence en AI. Alleen zo kunnen we een betrouwbare AI ontwikkelen die voldoet aan Europese normen. Onze missie is om bedrijven en mensen veiliger te maken in een digitale wereld.
Benieuwd hoe je je risico’s beter beheert en je organisatie vooruit helpt? Lees dan Security Navigator 2025.
Bronnen:
(1) AI: deepfake scam cost Hong Kong company $26 million», France Inter, 5 feb. 2024.
(2) CTI: Cyber Threat Intelligence; SIEM: Security, Information and Event Management; EDR: End Detection and response.