Google Cloud anunció importantes actualizaciones de su plataforma Google Kubernetes Engine en KubeCon Europe 2026 el lunes, unificando sus sistemas de gestión y liberando en código abierto componentes clave para posicionar GKE como la plataforma líder para cargas de IA. Los cambios permiten a los clientes combinar gestión de infraestructura automatizada y manual dentro del mismo sistema, a la vez que introducen funciones especializadas para agentes IA y entrenamiento de modelos a gran escala.
El movimiento subraya el agresivo impulso de Google Cloud para capturar una mayor cuota del mercado de infraestructura de IA, actualmente dominado por competidores como Amazon Web Services y Microsoft Azure. Al eliminar barreras entre sus ofertas de Kubernetes administradas y autogestionadas, Google busca atraer a empresas reacias a comprometerse por completo con cualquiera de los enfoques.
La pieza central de la estrategia elimina el requisito previo de que los clientes elijan de forma irreversible entre GKE Standard y GKE Autopilot al crear un clúster. En su lugar, las nuevas clases de computación Autopilot permiten a las organizaciones ejecutar ambos estilos de gestión en un solo clúster, según el anuncio en el Google Cloud Blog.
«Este enfoque híbrido ofrece beneficios significativos», afirmó la compañía, destacando una flexibilidad operativa que permite a los usuarios mantener un control preciso sobre cargas específicas mientras aprovechan la infraestructura totalmente gestionada para otras. El cambio permite que los clientes existentes de GKE Standard adopten Autopilot de forma incremental sin migraciones disruptivas.
Funciones de IA para la adopción empresarial

Google introdujo varias capacidades específicas de IA diseñadas para abordar preocupaciones de seguridad y rendimiento que han frenado la adopción empresarial. El nuevo Kubernetes Agent Sandbox proporciona un aislamiento mejorado para ejecutar código generado por grandes modelos lingüísticos, mientras que GKE Pod Snapshots reduce los tiempos de arranque al restaurar cargas desde instantáneas de memoria.
En colaboración con Anyscale, Google anunció soporte TPU en Ray v2.55, proporcionando una alternativa a las GPUs NVIDIA para escalar exigentes cargas de IA. La compañía también reveló que GKE ha sido certificado bajo el programa CNCF Kubernetes AI Conformance, estableciendo credibilidad ante organizaciones que buscan infraestructura de IA estandarizada.
La estrategia de código abierto desafía a los competidores
Quizás de forma más significativa, Google se comprometió a liberar en código abierto componentes críticos de GKE, incluido el GKE Cluster Autoscaler y su driver Dynamic Resource Allocation para TPUs. Este movimiento, coordinado con NVIDIA, busca crear estándares unificados para gestionar hardware especializado en entornos de Kubernetes.
La compañía también aportó su proyecto llm-d, desarrollado con Red Hat y NVIDIA, al CNCF Sandbox. Este marco de inferencia distribuida nativo de Kubernetes busca estandarizar servicios de IA en plataformas cloud.
Al liberar estas tecnologías a la comunidad de código abierto, Google se posiciona como líder en prevenir el bloqueo de proveedores, mientras que potencialmente socava soluciones propietarias de competidores. La estrategia podría acelerar la adopción de infraestructura de IA al reducir las preocupaciones sobre quedar atado a un único proveedor de nube.
Sources
- cloud.google.com/blog

