Google breidt de ondersteuning voor het Model Context Protocol uit naar al zijn diensten, waaronder Google Cloud. Het protocol van Anthropic fungeert als een uniforme standaard om modellen zoals Gemini 3 te koppelen aan tools en data. Ontwikkelaars krijgen hiermee toegang tot beheerde MCP-servers die directe integratie met Google-services mogelijk maken.
Google meldt dat ontwikkelaars niet langer zelf lokale MCP-servers hoeven te onderhouden. Het bedrijf introduceert beheerde, externe MCP-servers die toegang bieden tot een uniforme API-structuur voor het verbinden van AI-agents met diensten in Google en Google Cloud. Dit moet de inzet van modellen voor complexe taken vereenvoudigen en consistent maken.
De eerste integraties richten zich op geodata, data-analyse en infrastructuurbeheer. Via Google Maps Grounding Lite kunnen agents betrouwbare gegevens gebruiken over locaties, routes en weersinformatie. Dit moet helpen om foutieve antwoorden te voorkomen. BigQuery wordt ontsloten zodat agents schema’s kunnen herkennen en queries kunnen uitvoeren zonder data te verplaatsen. Compute Engine en Kubernetes Engine stellen beheermogelijkheden beschikbaar als vindbare tools. Hierdoor kunnen agents componenten beheren, diagnose uitvoeren en kosten inzichtelijk maken binnen dezelfde omgeving.
Google breidt de aanpak uit via Apigee. Daarmee kunnen klanten eigen API’s beschikbaar maken als tools binnen het MCP-ecosysteem. De governance en beveiliging worden centraal geregeld via Cloud IAM en Model Armor. Volgens het bedrijf moet dit zorgen voor een afgebakende toegang tot kritieke functies en bescherming tegen geavanceerde dreigingen.
David Soria Parra, mede-ontwikkelaar van het protocol bij Anthropic, noemt de brede ondersteuning door Google een stap die geïntegreerde samenwerking tussen AI-agents en bestaande digitale hulpmiddelen moet vereenvoudigen.


