Falla crítica en Google Cloud expone riesgos en agentes de IA

el

Una investigación de Unit 42, el equipo de inteligencia de amenazas de Palo Alto Networks, reveló una vulnerabilidad crítica en Vertex AI Agent Engine de Google Cloud Platform que podría convertir a los agentes de inteligencia artificial en actores con acceso excesivo a información corporativa sensible.

Según el informe, bajo configuraciones predeterminadas, estos agentes de IA pueden recibir privilegios mucho más amplios de los necesarios, lo que implica que, si son comprometidos, pueden operar como un “doble agente” dentro de los entornos empresariales, con capacidad para consultar, acceder y extraer datos sin restricciones claras.

Permisos excesivos y riesgo de exposición de datos

La falla se origina en los permisos asignados por defecto al servicio Per-Project, Per-Product Service Agent (P4SA). Esta configuración permite que un solo agente mal configurado se convierta en un punto de acceso privilegiado dentro de un proyecto en la nube.

Lea también: Nissan redefine la movilidad con IA y electrificación

Durante las pruebas, los investigadores lograron leer sin restricciones los datos almacenados en Google Cloud Storage Buckets, incluyendo información empresarial sensible. Además, fue posible acceder a repositorios internos de Artifact Registry, desde donde se descargaron imágenes de contenedores utilizados por el motor de razonamiento de Vertex AI, exponiendo detalles clave de la infraestructura.

El análisis también identificó permisos OAuth 2.0 demasiado amplios y no modificables, que en ciertos escenarios podrían ampliar el impacto del ataque hacia servicios como Gmail o Google Drive, dependiendo del contexto del agente comprometido.

Advertencia para las organizaciones

Tras conocer el hallazgo, Unit 42 trabajó de forma coordinada con Google, lo que llevó a una actualización de la documentación oficial para explicar con mayor claridad el uso de recursos, cuentas y agentes en Vertex AI.

No obstante, los expertos advierten que, ante la creciente adopción de agentes autónomos de IA, las empresas deben revisar y limitar cuidadosamente los permisos asignados. La velocidad y autonomía de estos sistemas hacen que un solo error de configuración pueda escalar rápidamente y derivar en una brecha de seguridad de alto impacto.

Deja un comentario