AI-agents in Google Vertex AI hebben standaard ruime toegangsrechten die een beveiligingsrisico kunnen vormen. Onderzoek van Palo Alto Networks wijst op potentiële insider threats wanneer agents verkeerd zijn geconfigureerd of gecompromitteerd raken. De snelle AI-adoptie introduceert nieuwe beveiligingsuitdagingen voor organisaties.
AI-agents in Google Cloud’s Vertex AI Engine beschikken standaard over relatief ruime toegangsrechten. Dit blijkt uit onderzoek van Unit 42, het onderzoeksteam van Palo Alto Networks.
Volgens het onderzoek kunnen deze brede toegangsrechten een beveiligingsrisico vormen wanneer AI-agents verkeerd zijn geconfigureerd of gecompromitteerd raken. In die gevallen kan een agent worden misbruikt om de cloudomgeving van organisaties aan te tasten.
AI-agents als nieuwe insider categorie
Het onderzoek wijst op een breder beveiligingsprobleem. De snelle adoptie van AI-agents introduceert volgens Palo Alto Networks feitelijk een nieuwe categorie ‘insiders’ met uitgebreide rechten. Dit gebeurt terwijl veel organisaties al onder druk staan om toegangscontroles te versoepelen voor AI-gedreven automatisering.
Een AI-agent die oorspronkelijk is bedoeld als hulpmiddel, kan daardoor in de praktijk uitgroeien tot een potentiële insider threat.
Google past documentatie aan
Unit 42 heeft de bevindingen gedeeld met Google. In samenwerking met het beveiligingsteam van Google is de documentatie aangescherpt om meer transparantie te bieden over het gebruik van resources.
Daarnaast adviseert Google het gebruik van “Bring Your Own Service Account” (BYOSA) als best practice. Met deze aanpak krijgen organisaties meer controle over toegangsrechten en kunnen ze overmatige rechten voorkomen.
Het onderzoek onderstreept volgens Palo Alto Networks hoe belangrijk het is om ook in het AI-tijdperk fundamentele beveiligingsprincipes zorgvuldig toe te passen.


