Google Cloud a dévoilé lundi d’importantes mises à jour de sa plateforme Google Kubernetes Engine lors de KubeCon Europe 2026, fusionnant ses systèmes de gestion et diffusant en open source des composants clés afin de positionner GKE comme la plateforme de référence pour les workloads d’intelligence artificielle. Ces évolutions permettent aux clients de conjuguer gestion d’infrastructure automatisée et manuelle au sein d’un même système, tout en introduisant des fonctionnalités spécialisées pour les agents d’IA et l’entraînement de modèles à grande échelle.
Cette démarche atteste de l’offensive de Google Cloud pour conquérir une part plus importante du marché, en forte croissance, de l’infrastructure d’IA, actuellement dominé par des concurrents comme Amazon Web Services et Microsoft Azure. En abolissant les barrières entre ses offres Kubernetes managées et autogérées, Google vise à séduire les entreprises hésitantes à s’engager pleinement dans l’une ou l’autre approche.
La pièce maîtresse de la stratégie lève l’obligation, qui s’imposait auparavant, de choisir de manière irréversible entre GKE Standard et GKE Autopilot lors de la création d’un cluster. À la place, les nouvelles Autopilot compute classes permettent aux organisations d’opérer les deux modes de gestion au sein d’un même cluster, selon l’annonce publiée sur le Google Cloud Blog.
« Cette approche hybride procure des avantages significatifs », a affirmé l’entreprise, démontrant une flexibilité opérationnelle qui permet aux utilisateurs de conserver un contrôle fin sur des workloads spécifiques tout en tirant parti d’une infrastructure entièrement managée pour d’autres. Ce pivot permet aux clients GKE Standard existants d’adopter Autopilot de manière progressive, sans migrations fastidieuses.
Fonctionnalités AI-first favorisant l’adoption en entreprise

Google a dévoilé plusieurs fonctions spécifiques à l’IA conçues pour répondre aux préoccupations de sécurité et de performance qui ont ralenti l’adoption en entreprise. Le nouveau Kubernetes Agent Sandbox garantit une isolation renforcée pour l’exécution de code généré par des grands modèles langagiers, tandis que GKE Pod Snapshots minimisent les temps de démarrage en restaurant des workloads à partir de snapshots mémoire.
En collaboration avec Anyscale, Google a annoncé le support TPU dans Ray v2.55, offrant une alternative aux GPU NVIDIA pour faire évoluer des workloads d’IA exigeants. L’entreprise a également indiqué que GKE a été certifié dans le cadre du programme CNCF Kubernetes AI Conformance, consolidant sa crédibilité auprès des organisations recherchant une infrastructure d’IA standardisée.
La stratégie open source bouscule les concurrents
Plus important encore, Google s’est engagé à diffuser en open source des composants GKE critiques, notamment le GKE Cluster Autoscaler et son pilote Dynamic Resource Allocation pour TPUs. Cette avancée, coordonnée avec NVIDIA, vise à créer des standards unifiés pour la gestion de matériel spécialisé dans des environnements Kubernetes.
L’entreprise a également soumis son projet llm-d, développé avec Red Hat et NVIDIA, au CNCF Sandbox. Ce framework d’inférence distribuée, Kubernetes-natif, vise à standardiser l’exécution d’IA sur l’ensemble des plateformes cloud.
En partageant ces technologies avec toute la communauté open source, Google se positionne comme un leader dans la prévention du verrouillage propriétaire, tout en fragilisant potentiellement les solutions propriétaires des concurrents. Cette stratégie pourrait accélérer l’adoption de l’infrastructure d’IA en dissipant les craintes d’être lié à un unique fournisseur cloud.
Sources
- cloud.google.com/blog

