Cybercriminelen richten zich in toenemende mate op AI-agents om vertrouwelijke informatie uit organisatiesystemen los te krijgen. Dat blijkt uit onderzoek van Check Point Software Technologies, gebaseerd op analyses van het in-house onderzoeksteam van Lakera, dat eind 2025 door Check Point werd overgenomen.
Volgens het onderzoek is sinds het vierde kwartaal van 2025 sprake van een duidelijke verschuiving in aanvalstactieken. Hackers maken daarbij gebruik van gerichte prompts om AI-agents te overtuigen gevoelige gegevens uit gekoppelde systemen vrij te geven en door te sturen. In het eerste deel van 2025 lag de focus nog vooral op het verkennen van het theoretische potentieel van AI-agents, later in het jaar volgde grootschalige inzet in productieomgevingen.
Steeds meer organisaties gebruiken AI-agents voor taken zoals het ophalen en analyseren van documenten, communicatie met externe API’s en het uitvoeren van geautomatiseerde processen. Door deze brede toegang tot systemen en data vormen AI-agents een aantrekkelijk doelwit voor aanvallers. In tegenstelling tot traditionele taalmodellen kunnen deze agents zelfstandig externe tools en databronnen benaderen, wat het risico op misbruik vergroot.
Misbruik via prompts en interne instructies
Naast gerichte gebruikersprompts richten aanvallers zich ook op zogenoemde systeemprompts. Dit zijn interne instructies die het gedrag van een AI-agent bepalen. Door deze te manipuleren of te omzeilen, kunnen aanvallers agents ertoe bewegen een andere rol aan te nemen en vertrouwelijke informatie vrij te geven.
Het onderzoek laat zien dat aanvallers steeds vaker sociale manipulatie combineren met technische kwetsbaarheden. Bestaande beveiligingsmaatregelen blijken daarbij regelmatig onvoldoende, omdat AI-omgevingen nog niet volledig zijn geïntegreerd in het bredere securitybeleid.
Oproep tot bredere beveiligingsaanpak
Volgens Check Point onderstrepen de bevindingen het belang van aanvullende maatregelen bij de inzet van AI-agents. Organisaties moeten onder meer duidelijke grenzen stellen aan wat agents mogen benaderen, contextbewuste beveiliging toepassen en beter inzicht krijgen in de besluitvorming van AI-systemen. Ook nauwere samenwerking tussen AI- en securityteams wordt genoemd als aandachtspunt.
Daarnaast wijst het rapport op de noodzaak om regelgeving en interne governance aan te passen aan de opkomst van autonome AI-toepassingen. AI-beveiliging moet worden geïntegreerd in het bredere cybersecuritybeleid, in plaats van als los technisch vraagstuk te worden benaderd.
Het onderzoek laat zien dat AI-agents steeds vaker onderdeel worden van kritieke bedrijfsprocessen, terwijl beveiligingsstrategieën nog in ontwikkeling zijn. Daarmee groeit het belang van structurele aandacht voor governance, monitoring en risicobeheersing rond autonome AI-systemen.


