Driekwart van de Nederlandse IT-leiders voelt zich onder druk gezet om AI-initiatieven snel goed te keuren, ondanks veiligheidsbezwaren. Slechts een kwart van de organisaties heeft een officieel AI-beleid. Dit blijkt uit onderzoek onder 3.700 besluitvormers, waaronder 100 uit Nederland.
Nederlandse organisaties implementeren AI-technologie sneller dan ze de bijbehorende risico’s kunnen beheersen. Uit nieuw onderzoek blijkt dat 74% van de IT-leiders en 66% van de zakelijke leiders zich onder druk voelt om AI-initiatieven snel goed te keuren, ondanks veiligheidsbezwaren.
Het onderzoek is uitgevoerd door TrendAI onder 3.700 besluitvormers wereldwijd, waaronder 100 uit Nederland. Ongeveer 18% van de respondenten bestempelt de veiligheidsbezwaren als ‘extreem’, maar deze worden vaak genegeerd om gelijke tred te houden met concurrenten.
Onduidelijke verantwoordelijkheden
Het risico wordt versterkt door inconsistenties in governancekaders en onduidelijkheid over verantwoordelijkheden. Organisaties wijzen voornamelijk naar de CISO (43%) en legal/compliance-teams (28%) als eindverantwoordelijke voor het beheren van AI-risico’s. Het bestuur wordt minder vaak genoemd (23%).
Beveiligingsteams reageren volgens het onderzoek vaak reactief op top-downbeslissingen over AI-invoering. Dit leidt tot noodoplossingen en toegenomen gebruik van niet-goedgekeurde ‘schaduw-AI’-tools.
Governance loopt achter
Slechts 24% van de Nederlandse organisaties heeft een officieel AI-beleid. Tegelijkertijd geeft 28% aan dat onduidelijke regelgeving of compliance-vormen een belemmering vormt voor het opstellen van AI-beleid. Ook gebrek aan intern beleid (38%) en onduidelijkheid over verantwoordelijkheden (37%) worden als barrières genoemd.
Bijna de helft (47%) van de Nederlandse organisaties erkent dat AI zich sneller ontwikkelt dan dat zij het kunnen beveiligen. Slechts iets meer dan een kwart heeft vertrouwen in de eigen kennis over wettelijke kaders die AI reguleren, met een groot verschil tussen IT-leiders (52%) en zakelijke leiders (20%).
Beperkt vertrouwen in autonome AI
Het vertrouwen in geavanceerde, autonome AI-systemen bevindt zich nog in de beginfase. Slechts 35% van de Nederlandse organisaties gelooft dat agentic AI cyberbeveiliging op korte termijn significant zal verbeteren.
De grootste zorgen zijn het groeiende aanvalsoppervlak (40%), onbedoelde blootstelling van gevoelige gegevens (35%) en misbruik van de vertrouwde status van AI (32%). Meer dan een derde (38%) van de organisaties geeft toe geen volledig inzicht of controle te hebben over AI-systemen.
Een kwart (25%) van de Nederlandse organisaties steunt de introductie van AI ‘kill-switch’-mechanismen als noodmaatregel. Echter, 55% weet niet of dergelijke mechanismen nuttig zijn, wat wijst op gebrek aan consensus over controle over autonome AI-systemen.
Toenemende cyberdreigingen
Uit aanvullend onderzoek van TrendAI blijkt dat cybercriminelen AI gebruiken om verkenningsactiviteiten te automatiseren en phishingcampagnes te versnellen. Hierdoor neemt zowel de snelheid als schaal van cyberaanvallen toe, wat het belang van veilige AI-implementatie benadrukt.


