Incidenten waarbij AI-applicaties betrokken zijn, zijn het afgelopen jaar met 43 procent toegenomen. Dat blijkt uit wereldwijd onderzoek van KnowBe4 onder securityverantwoordelijken en medewerkers. Governance, toezicht en technische detectie lopen volgens het onderzoek achter op het tempo waarin AI binnen organisaties wordt ingezet.
AI is daarmee, na e-mail, de snelst groeiende factor in het dreigingslandschap. Het onderzoek, uitgevoerd onder 700 cybersecurity-leiders en 3.500 medewerkers wereldwijd, wijst op de snelle adoptie van generatieve AI, autonome agents en AI-gedreven workflows. Deze toepassingen introduceren nieuwe aanvalsvectoren die lastiger te beheersen zijn dan traditionele IT-risico’s.
Respondenten geven aan dat gevoelige documenten regelmatig worden geüpload naar externe AI-tools. Tegelijkertijd kunnen AI-systemen zelf doelwit zijn van manipulatie. Aanvallers zetten AI bovendien in om phishing en andere aanvallen overtuigender en beter schaalbaar te maken. Voor 45 procent van de securityleiders vormt het bijhouden van deze AI-gedreven dreigingen de grootste uitdaging bij het beïnvloeden van menselijk gedrag.
Ook het gebruik van deepfakes neemt toe. Bij 32 procent van de organisaties is het aantal incidenten met deepfakes het afgelopen jaar gestegen. Deze technieken worden ingezet voor stem- en identiteitsvervalsing, waardoor social engineering-aanvallen persoonlijker en geloofwaardiger worden. Medewerkers zijn zich hiervan bewust: 86 procent zegt zich zorgen te maken over misleiding via deepfakes, bijvoorbeeld om toegang te krijgen tot systemen of vertrouwelijke informatie.
Weerbaarheid blijft achter
Tegelijk blijft de technische weerbaarheid achter. Slechts 35 procent van de organisaties heeft technologie geïmplementeerd om deepfakes te detecteren. Veel AI-gedreven aanvallen blijven daardoor onopgemerkt of worden pas laat ontdekt. Training en e-mailbeveiliging worden volgens het onderzoek vaker ingezet dan gespecialiseerde detectiemiddelen.
Een ander terugkerend thema is de opkomst van zogenoemde shadow AI. Hoewel 98 procent van de organisaties aangeeft maatregelen te hebben genomen om AI-gerelateerde cyberrisico’s te beheersen, ervaren medewerkers in de praktijk beperkingen. Slechts 26 procent zegt snel toegang te hebben tot de AI-tools die nodig zijn voor het werk. Meer dan de helft ervaart de toegang als te traag of geheel afwezig.
Die kloof tussen beleid en praktijk leidt tot risicovol gedrag. Zeventien procent van de medewerkers gebruikt AI-tools zonder toestemming van IT- of securityteams. Dit vergroot de kans op datalekken, het delen van gevoelige informatie en onzichtbare manipulatie van AI-agents, doordat gebruik buiten het zicht van toezicht en logging plaatsvindt.
Human Risk
Het onderzoek plaatst AI nadrukkelijk binnen het domein van Human Risk Management. AI fungeert daarbij niet alleen als externe dreiging, maar ook als interne risicofactor die direct samenhangt met menselijk gedrag. Zonder duidelijke richtlijnen, realtime begeleiding en inzicht in gebruik verschuift werk naar omgevingen met een hoger risicoprofiel.
Volgens Javvad Malik, Lead CISO Advisor bij KnowBe4, is de productiviteitswinst van AI te groot om te negeren. Hij stelt dat mens en AI steeds nauwer zullen samenwerken en dat beveiligingsprogramma’s deze realiteit moeten volgen door ook de AI-laag expliciet mee te nemen.


