Het gebruik van AI-toepassingen binnen organisaties groeit sneller dan het toezicht erop. Daardoor ontstaan nieuwe beveiligingsrisico’s, waarschuwt Zscaler in zijn nieuwste ThreatLabz AI Threat Report. Veel bedrijven hebben volgens de onderzoekers onvoldoende zicht op welke AI-tools worden gebruikt en welke data daarin terechtkomt.
Uit het rapport blijkt dat de AI- en machine learning-activiteit in 2025 met 91 procent is toegenomen. Tegelijkertijd ontbreekt bij veel organisaties een overzicht van actieve AI-modellen en ingebouwde AI-functionaliteiten. Daardoor weten zij vaak niet waar gevoelige informatie wordt verwerkt of opgeslagen.
Volgens Zscaler vormt dat een groeiend probleem. AI wordt niet alleen ingezet voor productiviteit, maar ook steeds vaker misbruikt bij cyberaanvallen. In omgevingen waar geen centraal toezicht bestaat, kunnen aanvallers relatief eenvoudig misbruik maken van kwetsbaarheden.
Op basis van Red Team-tests stelt Zscaler dat AI-systemen in veel organisaties snel zijn binnen te dringen. In alle onderzochte omgevingen werden kwetsbaarheden aangetroffen. De mediane tijd tot de eerste kritieke storing lag op zestien minuten. In negentig procent van de gevallen was een systeem binnen anderhalf uur gecompromitteerd.
Volgens Deepen Desai, EVP Cybersecurity bij Zscaler, maakt vooral de opkomst van autonome en semi-autonome AI-agents aanvallen gevaarlijker. Deze agents kunnen verkenning, exploitatie en laterale beweging grotendeels automatiseren, waardoor aanvallen op ‘machine-speed’ verlopen. Een belangrijk aandachtspunt in het rapport is het toenemende gebruik van ingebouwde AI-functionaliteiten in SaaS-applicaties. Deze functies zijn vaak standaard ingeschakeld en blijven daardoor buiten het zicht van IT- en securityteams.
Volgens Zscaler vormt dit een groeiend risico op datalekken. Gevoelige informatie kan ongemerkt in externe AI-modellen terechtkomen, zonder dat daar beleid of controle op zit. In het onderzoek wordt onder meer gewezen op samenwerkings- en ontwikkelplatforms waarin AI breed wordt toegepast. Naast ingebedde AI blijft ook het gebruik van standalone tools zoals ChatGPT en code-assistenten toenemen. In 2025 werden via deze platforms tientallen miljarden transacties uitgevoerd.
De hoeveelheid bedrijfsdata die via AI-toepassingen wordt verwerkt, groeit sterk. In 2025 ging het volgens Zscaler om ruim 18.000 terabyte, een stijging van 93 procent ten opzichte van een jaar eerder. Daarmee worden AI-platforms steeds grotere verzamelplaatsen van bedrijfsinformatie. Die concentratie maakt deze omgevingen aantrekkelijk voor cybercriminelen. Zscaler rapporteert honderden miljoenen overtredingen van Data Loss Prevention-beleid, waaronder pogingen om persoonsgegevens, broncode en medische gegevens te verwerken via AI-tools. Volgens de onderzoekers verschuift AI-governance daarmee van een beleidsdiscussie naar een direct operationeel vraagstuk.
Voor IT-dienstverleners en msp’s betekent deze ontwikkeling dat AI-beveiliging steeds vaker onderdeel wordt van hun dienstverlening. Veel klanten gebruiken inmiddels meerdere AI-tools, vaak zonder centrale regie. Daardoor ontstaan blinde vlekken in beveiliging en compliance. Zscaler stelt dat klassieke firewalls en VPN-oplossingen onvoldoende zijn toegerust op dynamische AI-omgevingen. Door het toenemende gebruik van cloudapplicaties en AI-diensten ontstaat versnipperd verkeer dat lastig centraal te controleren is. Volgens het bedrijf is een meer geïntegreerde aanpak nodig, met nadruk op zichtbaarheid, datacontrole en toegangsbeheer. Daarbij wordt onder meer verwezen naar zero trust-architecturen als mogelijke basis.
Waar AI-beleid lange tijd vooral een strategisch onderwerp was, verschuift de aandacht volgens Zscaler naar de dagelijkse praktijk. Securityteams krijgen steeds vaker te maken met incidenten waarbij AI-tools een rol spelen. Organisaties die geen structureel toezicht inrichten op AI-gebruik, lopen volgens het rapport het risico grip te verliezen op hun data en infrastructuur.


