Google Cloud hat am Montag auf der KubeCon Europe 2026 weitreichende Updates für seine Google Kubernetes Engine Plattform präsentiert, vereinheitlicht dabei seine Managementsysteme und veröffentlicht zentrale Komponenten als Open Source, um GKE als führende Plattform für Workloads der Künstlichen Intelligenz zu positionieren. Die Neuerungen ermöglichen es Kunden, automatisiertes und manuelles Infrastruktur-Management im selben System zu bündeln und führen zugleich spezialisierte Funktionen für KI Agenten und großskaliges Model Training ein.
Der Schritt unterstreicht den entschlossenen Vorstoß von Google Cloud, sich einen größeren Anteil am rasant wachsenden KI-Infrastrukturmarkt zu sichern, der derzeit von Wettbewerbern wie Amazon Web Services und Microsoft Azure dominiert wird. Durch den Abbau von Hürden zwischen den Managed- und Self-Managed-Kubernetes-Angeboten will Google Unternehmen ansprechen, die zögern, sich vollständig auf einen der beiden Ansätze festzulegen.
Das Kernstück der Strategie beseitigt die bisherige Vorgabe, sich bei der Clustereinrichtung unwiderruflich zwischen GKE Standard und GKE Autopilot entscheiden zu müssen. Stattdessen ermöglichen die neuen Autopilot Compute Classes Unternehmen, beide Managementstile innerhalb eines einzigen Clusters zu betreiben, so die Ankündigung im Google Cloud Blog.
„Dieser hybride Ansatz bringt erhebliche Vorteile“, erklärte das Unternehmen und hob die betriebliche Flexibilität hervor, die es Nutzern erlaubt, für bestimmte Workloads eine granulare Kontrolle zu behalten und zugleich für andere eine vollständig gemanagte Infrastruktur zu nutzen. Die Neuerung ermöglicht es bestehenden GKE-Standard-Kunden, Autopilot schrittweise zu übernehmen, ohne aufwendige Migrationen.
AI-first Features zielen auf Enterprise-Adoption ab

Google stellte mehrere KI-spezifische Funktionen vor, die auf Sicherheits- und Performance-Bedenken abzielen, welche die Enterprise-Adoption bislang ausgebremst haben. Die neue Kubernetes Agent Sandbox bietet eine stärkere Isolation für das Ausführen von Code, der von Large Language Models generiert wird, während GKE Pod Snapshots die Startzeiten verkürzen, indem Workloads aus Memory Snapshots wiederhergestellt werden.
In Zusammenarbeit mit Anyscale kündigte Google TPU-Support in Ray v2.55 an und bietet damit eine Alternative zu NVIDIA GPUs, um anspruchsvolle KI Workloads zu skalieren. Zudem gab das Unternehmen bekannt, dass GKE im Rahmen des CNCF Kubernetes AI Conformance Program zertifiziert wurde, was Vertrauen bei Organisationen schafft, die standardisierte KI-Infrastruktur suchen.
Open-Source-Strategie fordert Wettbewerber heraus
Am bedeutsamsten ist wohl Googles Zusage, kritische GKE-Komponenten als Open Source bereitzustellen, darunter den GKE Cluster Autoscaler und den Dynamic Resource Allocation Driver für TPUs. Dieser in Abstimmung mit NVIDIA koordinierte Schritt soll einheitliche Standards für das Management spezialisierter Hardware in Kubernetes-Umgebungen schaffen.
Das Unternehmen steuerte außerdem sein llm-d Projekt, entwickelt mit Red Hat und NVIDIA, zur CNCF Sandbox bei. Dieses Kubernetes-native Distributed Inference Framework zielt darauf ab, KI Serving über Cloud-Plattformen hinweg zu standardisieren.
Mit der Freigabe dieser Technologien für die Open-Source-Community positioniert sich Google als Vorreiter bei der Vermeidung von Vendor Lock-in und könnte zugleich proprietäre Lösungen von Wettbewerbern schwächen. Die Strategie könnte die Einführung von KI-Infrastruktur beschleunigen, indem sie Bedenken mindert, an einen einzelnen Cloud-Provider gebunden zu sein.
Sources
- cloud.google.com/blog

