Zoeken

AI en cybersecurity: the good, the bad & the ugly

AI en machine learning bieden cybercriminelen nieuwe manieren om organisaties het leven zuur te maken. Gelukkig is AI niet alleen een aanvalswapen, maar ook een troef voor een sterkere cybersecurity. Dit zijn de kansen, de risico’s en de grootste dreigingen van deze technologie: the good, the bad & the ugly. 

The good:

AI kan securitysystemen aanscherpen 

AI kan helpen om cyberaanvallen te voorkomen en te detecteren, door gebruik te maken van geavanceerde algoritmen en machinelearning technieken. AI kan bijvoorbeeld gebruikmaken van datasets om afwijkende patronen te ontdekken in grote hoeveelheden netwerkverkeer.  

Logt een gebruiker altijd in rond 09:00 ‘s ochtends vanuit Utrecht? Dan kan een systeem een inlogpoging van die gebruiker vanuit Zuid-Afrika midden in de nacht als verdacht herkennen. 

AI verlicht het gebrek aan securitytalent 

AI kan een waardevolle bondgenoot zijn voor de schaarse securityprofessionals. Het kan namelijk veelvoorkomende securitytaken automatiseren die anders veel handmatig werk vereisen. Denk bijvoorbeeld niet alleen aan het detecteren en blokkeren van verdachte activiteiten, maar bijvoorbeeld ook aan het analyseren van grote hoeveelheden data, het identificeren en patchen van kwetsbaarheden, of het genereren van rapporten en aanbevelingen. 

Met AI als ‘rechterhand’ krijgen securityprofessionals de handen vrij voor complexere en strategische uitdagingen. Bijvoorbeeld voor het ontwerp van een solide beveiligingsbeleid. Zo kan AI een oplossing bieden voor het groeiend tekort aan securitytalent. 

The bad:

AI verlaagt de drempel voor het uitvoeren van cyberaanvallen

ChatGPT groeit met zo’n 200.000 nieuwe gebruikers per dag als kool, zo schetst Jan Aril Sigvartsen, Senior Executive Advisor bij Orange Cyberdefense tijdens OCD Live 2023. Die gebruikers zijn niet allemaal van goede wil. Hackers gebruiken deze tool voor het genereren van kwaadaardige code. Denk bijvoorbeeld aan scripts die kwetsbaarheden in systemen misbruiken. Programmeervaardigheden zijn voor dat soort aanvallen daarmee niet meer noodzakelijk.

Hackers kunnen cyberaanvallen met AI aanscherpen

AI verlaagt niet alleen de aanvalsdrempel, maar kan in verkeerde handen een cyberaanval ook kracht bijzetten. Hackers kunnen met AI bijvoorbeeld geavanceerde malware ontwikkelen die zichzelf kan aanpassen aan de beveiligingsmaatregelen van het doelwit. Generatieve AI kan phishingmails op maat opstellen, die inspelen op de interesses of situatie van de ontvanger.

AI kan ook de schaal waarop aanvallen plaatsvinden vergroten, waarschuwt Sigvartsen. Met behulp van cloudtechnologie is de benodigde rekenkracht voor AI-gedreven aanvallen in ieder geval in theorie vrijwel oneindig schaalbaar. Met die rekenkracht kan geavanceerde AI-malware bijvoorbeeld alle kwetsbaarheden van alle applicaties in een organisatie tegelijkertijd proberen te misbruiken. Of via een ‘brute force-aanval’ een wachtwoordbeveiliging omzeilen.

AI kan ten slotte realistische vervalsingen creëren waarmee hackers biometrische authenticatie zoals gezichts- of stemherkenning kunnen omzeilen. Onderschat ook niet de risico’s van deepfakes. Hackers kunnen gemanipuleerd filmpjes of geluidsfragmenten inzetten waarin bijvoorbeeld een leidinggevende zogenaamd een betalingsverzoek doet naar een rekeningnummer dat op naam van cybercriminelen staat.

 

The ugly:

AI kan trainingsdata manipuleren en besluitvorming beïnvloeden

Steeds meer organisaties omarmen machinelearning, een vorm van AI die zichzelf steeds verder kan verbeteren op basis van trainingsdata. Bijvoorbeeld voor het verbeteren van beslissingsprocessen, of zelfs om besluitvorming volledig te automatiseren. De potentiële inzetgebieden zijn veelzijdig: van het optimaliseren van voorraden in een warenhuis tot automatische werving en selectie voor vacatures.

Wanneer hackers die trainingsdata manipuleren, kan dat ernstige gevolgen hebben. Stel dat een hacker toegang krijgt tot de trainingsdata van een werving- en selectietool. De hacker kan dan de data zo aanpassen dat het model een voorkeur ontwikkelt voor kandidaten die bepaalde kenmerken hebben, zoals leeftijd, geslacht, etniciteit of opleidingsniveau. Zo kan de hacker proberen om zichzelf of iemand anders een voordeel te geven bij de sollicitatie, of juist bepaalde groepen benadelen of uitsluiten. Dit kan leiden tot discriminatie, ongelijkheid en reputatieschade voor de organisatie die het model gebruikt.

Statelijke actoren kunnen AI misbruiken voor het voeren van cyberwarfare

Het klinkt misschien wat onheilspellend, maar AI kan volgens Sigvartsen ook leiden tot nieuwe vormen van cyberoorlogvoering. Denk bijvoorbeeld aan het gebruik van AI om valse informatie te verspreiden, om systemen te hacken, kritieke infrastructuur aan te vallen of zelfs om wapens te besturen. Deze vormen van cyberaanvallen kunnen de stabiliteit, veiligheid en democratie van landen ondermijnen, en kunnen zelfs geopolitieke crises aanwakkeren.

Vijf adviezen

AI is here to stay en heeft zeker gevolgen voor cybersecurity. En die gevolgen zijn niet alleen maar positief. Volgens Sigvartsen kunnen organisaties de volgende concrete stappen zetten om de risico’s te beperken:

1. Identificeer de risico’s

Een solide securitystrategie begint in de boardroom, op businessniveau. De business moet hierbij de vraag durven stellen in welke mate AI van invloed is op de security. Maak je als organisatie bijvoorbeeld al zelf gebruik van AI-systemen, en in welke mate ligt het risico van beïnvloeding daarvan op de loer? Ben je wellicht actief in een branche die bepaalde risico’s met zich meebrengt?

2. Vervang legacysystemen zo snel mogelijk

Organisaties zijn nog altijd voor 20 tot 40 procent afhankelijk van legacy IT. Die verouderde systemen vormen een enorm risico. Deze krijgen immers geen securityupdates meer, en zijn daardoor enorm gevoelig voor AI-gedreven aanvallen die deze kwetsbaarheid steeds beter herkennen en misbruiken. Vervang deze systemen zo snel mogelijk door moderne alternatieven.

3. Maak gebruik van schaalbare securitysystemen

AI-aanvallen nemen in schaal toe. Dat betekent dat ook je security snel moet kunnen opschalen. Maak hiervoor gebruik van schaalbare securitysystemen die zich snel kunnen aanpassen aan veranderende behoeften en bedreigingen.

4. Maak gebruik van AI

De vijand maakt gebruik van AI, dus moet jij het ook doen. Maak waar mogelijk gebruik van de positieve eigenschappen van AI in je cybersecuritystrategie.

5. Blijf experimenteren en innoveren

Het is een bekend Engels gezegde: fail fast, fail often. Dat geldt zeker voor de security van je organisatie. Experimenteer met de mogelijkheden die AI biedt voor je cyberverdediging. Een ding is duidelijk: steek je kop niet in het zand. Want dan laat je belangrijke cybersecuritykansen liggen en stel je jouw organisatie bloot aan onnodige risico’s.

Wij helpen organisaties al 25 jaar met het versterken van hun securityomgeving. Daarbij maken we waar mogelijk gebruik van AI. Wil je weten wat Orange Cyberdefense voor je kan betekenen in de strijd tegen AI-risico’s? Neem gerust vrijblijvend contact met ons op, we denken graag met je mee.

Incident Response Hotline

Facing cyber incidents right now?

Contact our 24/7/365 world wide service incident response hotline.

Tel: +31 184 78 81 11