Empfangsbereich des Nvidia-Büros, der modernes Design und Technologie präsentiert.

Nvidias strategischer Inferenz-Schwenk befeuert nächste KI-Welle

Nvidia-CEO Jensen Huang stellte am Montag auf der GTC 2026 einen wegweisenden Strategiewechsel vor und steuert den Chipriesen von AI Training zu Inference (der Echtzeit-Bereitstellung von AI), während das Unternehmen seine Marktprognose bis 2027 auf 1 Billion US-Dollar verdoppelt. Der Konzern präsentierte die Vera Rubin AI Platform, welche neue CPUs und GPUs vereint, die speziell für den Betrieb von AI-Anwendungen in großem Maßstab konzipiert wurden, da sich die Nachfrage vom Training von AI-Modellen zur globalen Bereitstellung verlagert.

Das Herzstück der neuen Plattform bildet die Nvidia Vera CPU mit 88 maßgeschneiderten „Olympus“-Kernen, welche laut Constellation Research 50% mehr Leistung sowie die doppelte Energieeffizienz im Vergleich zu herkömmlichen Prozessoren bieten. Der Chip, dessen Markteinführung für die zweite Jahreshälfte 2026 angesetzt ist, ist Nvidias erster großer Prozessor, der explizit für Inference-Workloads statt für das Training von AI-Modellen konzipiert wurde.


Führende Cloud-Anbieter wie AWS, Microsoft Azure und Google Cloud haben sich bereits zur Einführung der Vera CPU-Plattform verpflichtet, ebenso die Hardwarehersteller Dell und HPE, was den starken Rückhalt der Branche für Nvidias neuen Kurs unterstreicht. Der Konzern kündigte zudem eine strategische Kooperation mit Groq an, um dessen Language Processing Unit-Technologie zu integrieren und den Hardware-Stack konsequent auf Echtzeit-AI-Anwendungen zu fokussieren.

Marktdynamik verschiebt sich in Richtung Inference

Innenansicht eines Rechenzentrums mit mehreren KI-Server-Racks, die fortschrittliche Computing-Technologie veranschaulichen.

Der Zeitpunkt von Nvidias Neuausrichtung spiegelt fundamentale Umbrüche im AI-Markt wider. Dem Educational Technology and Change Journal zufolge wird 2026 das Jahr sein, in dem die gesamten Ausgaben für AI-Inference-Beschleuniger die Investitionen in Training-Beschleuniger übersteigen, da Unternehmen ihren Fokus vom Entwickeln von Modellen auf deren Bereitstellung in großem Maßstab lenken.


Der globale AI-Inference-Markt, der 2024 auf 97,24 Milliarden US-Dollar beziffert wurde, soll bis 2030 auf 253,75 Milliarden US-Dollar anwachsen, so Branchenberichte, auf die sich das Educational Technology and Change Journal beruft. Dieses immense Wachstum wird durch „agentic AI“-Systeme vorangetrieben, die kontinuierlich wahrnehmen, schlussfolgern und autonom agieren, wodurch ein ununterbrochener Bedarf an Rechenleistung in Echtzeit entsteht.


Huang betitelte den Konzern als das „weltweit erste vertikal integrierte, jedoch horizontal offene Unternehmen“ und unterstrich damit laut Constellation Research Nvidias Bestreben, den kompletten AI-Infrastruktur-Stack zu kontrollieren und gleichzeitig Partnerschaften fortzuführen. Die Strategie beinhaltet das Vera Rubin DSX AI Factory Reference Design, welches modulare Blaupausen liefert, mit denen Kunden eine groß angelegte, energieeffiziente AI-Infrastruktur errichten können.


Dieser Schritt positioniert Nvidia zudem gegen den erstarkenden Wettbewerb durch Konzerne wie Meta, welche maßgeschneiderte Inference-Chips entwickeln. Zu den primären Anwendungen, welche die Nachfrage antreiben, zählen autonome Fahrzeuge, medizinische Diagnostik, Echtzeit-Copilots sowie AI-gestützte Empfehlungssysteme, die auf globaler Ebene agieren und Branchen vom Gesundheitswesen bis zur Telekommunikation abdecken.

Sources

  • constellationr.com
  • etcjournal.com