Un visiteur s'enregistrant à la réception d'un bureau de Google Cloud, avec le logo de l'entreprise en arrière-plan.

Google Cloud GKE active une IA ouverte

Google Cloud a dévoilé lundi d’importantes mises à jour de sa plateforme Google Kubernetes Engine lors de KubeCon Europe 2026, fusionnant ses systèmes de gestion et diffusant en open source des composants clés afin de positionner GKE comme la plateforme de référence pour les workloads d’intelligence artificielle. Ces évolutions permettent aux clients de conjuguer gestion d’infrastructure automatisée et manuelle au sein d’un même système, tout en introduisant des fonctionnalités spécialisées pour les agents d’IA et l’entraînement de modèles à grande échelle.

Cette démarche atteste de l’offensive de Google Cloud pour conquérir une part plus importante du marché, en forte croissance, de l’infrastructure d’IA, actuellement dominé par des concurrents comme Amazon Web Services et Microsoft Azure. En abolissant les barrières entre ses offres Kubernetes managées et autogérées, Google vise à séduire les entreprises hésitantes à s’engager pleinement dans l’une ou l’autre approche.


La pièce maîtresse de la stratégie lève l’obligation, qui s’imposait auparavant, de choisir de manière irréversible entre GKE Standard et GKE Autopilot lors de la création d’un cluster. À la place, les nouvelles Autopilot compute classes permettent aux organisations d’opérer les deux modes de gestion au sein d’un même cluster, selon l’annonce publiée sur le Google Cloud Blog.


« Cette approche hybride procure des avantages significatifs », a affirmé l’entreprise, démontrant une flexibilité opérationnelle qui permet aux utilisateurs de conserver un contrôle fin sur des workloads spécifiques tout en tirant parti d’une infrastructure entièrement managée pour d’autres. Ce pivot permet aux clients GKE Standard existants d’adopter Autopilot de manière progressive, sans migrations fastidieuses.

Fonctionnalités AI-first favorisant l’adoption en entreprise

Vue intérieure d'un centre de données avec des rangées de serveurs et des câbles réseau.

Google a dévoilé plusieurs fonctions spécifiques à l’IA conçues pour répondre aux préoccupations de sécurité et de performance qui ont ralenti l’adoption en entreprise. Le nouveau Kubernetes Agent Sandbox garantit une isolation renforcée pour l’exécution de code généré par des grands modèles langagiers, tandis que GKE Pod Snapshots minimisent les temps de démarrage en restaurant des workloads à partir de snapshots mémoire.


En collaboration avec Anyscale, Google a annoncé le support TPU dans Ray v2.55, offrant une alternative aux GPU NVIDIA pour faire évoluer des workloads d’IA exigeants. L’entreprise a également indiqué que GKE a été certifié dans le cadre du programme CNCF Kubernetes AI Conformance, consolidant sa crédibilité auprès des organisations recherchant une infrastructure d’IA standardisée.

La stratégie open source bouscule les concurrents

Plus important encore, Google s’est engagé à diffuser en open source des composants GKE critiques, notamment le GKE Cluster Autoscaler et son pilote Dynamic Resource Allocation pour TPUs. Cette avancée, coordonnée avec NVIDIA, vise à créer des standards unifiés pour la gestion de matériel spécialisé dans des environnements Kubernetes.


L’entreprise a également soumis son projet llm-d, développé avec Red Hat et NVIDIA, au CNCF Sandbox. Ce framework d’inférence distribuée, Kubernetes-natif, vise à standardiser l’exécution d’IA sur l’ensemble des plateformes cloud.


En partageant ces technologies avec toute la communauté open source, Google se positionne comme un leader dans la prévention du verrouillage propriétaire, tout en fragilisant potentiellement les solutions propriétaires des concurrents. Cette stratégie pourrait accélérer l’adoption de l’infrastructure d’IA en dissipant les craintes d’être lié à un unique fournisseur cloud.

Sources

  • cloud.google.com/blog

Liora (ex DataScientest) est un institut de formation technologique fondé en 2017, qui figure parmi les acteurs de référence du secteur. Liora propose des formations à distance, en bootcamp ou en temps partiel, dans les métiers de la data, du cloud, de l’intelligence artificielle, du développement informatique, de la cybersécurité et de la transformation digitale. La méthode pédagogie est basée sur 80% de pratique asynchrone via une plateforme propriétaire ready to code, et 20% d’accompagnement en direct avec mentors et coachs carrière. Les formations permettent de valider des certifications RNCP de niveau 6 ou 7, souvent accompagnées d’un certificat de reconnaissance délivré par de grandes institutions françaises (Mines Paris, La Sorbonne, ECE, INSEEC, etc.). Elles préparent également à des certifications officielles délivrées par des entreprises technologiques majeures comme Microsoft, AWS ou Google Cloud. À ce jour, Liora compte plus de 50 000 alumni, répartis à travers le monde.

Liora – Your future. Decoded.