Le PDG de Nvidia, Jensen Huang, a dévoilé lundi lors du GTC 2026 un virage stratégique majeur, faisant passer le géant des semi-conducteurs de l’entraînement IA à l’inférence (le déploiement en temps réel de l’intelligence artificielle), tout en doublant ses prévisions de marché à 1 000 milliards de dollars d’ici 2027. L’entreprise a présenté sa plateforme IA Vera Rubin, qui combine de nouveaux CPU et GPU conçus spécifiquement pour exécuter des applications d’IA à grande échelle, alors que la demande bascule de la construction de modèles d’IA vers leur déploiement mondial.
La pièce maîtresse de la nouvelle plateforme est le CPU Nvidia Vera, doté de 88 cœurs « Olympus » personnalisés offrant des performances 50 % plus élevées et une efficacité énergétique doublée par rapport aux processeurs traditionnels, selon Constellation Research. La puce, dont la sortie est prévue au second semestre 2026, constitue le premier processeur majeur de Nvidia conçu spécifiquement pour des charges de travail d’inférence plutôt que pour l’entraînement IA.
Les principaux fournisseurs de cloud, dont AWS, Microsoft Azure et Google Cloud, se sont déjà engagés à adopter la plateforme CPU Vera, aux côtés des grands équipementiers Dell et HPE, signe d’un large soutien de l’industrie à la nouvelle orientation de Nvidia. L’entreprise a également annoncé un partenariat stratégique avec Groq pour intégrer sa technologie Language Processing Unit, ce qui spécialise davantage la pile matérielle pour des applications d’IA en temps réel.
La dynamique du marché bascule vers l’inférence

Le calendrier du pivot de Nvidia reflète des changements fondamentaux sur le marché de l’IA. Selon l’Educational Technology and Change Journal, 2026 marquera l’année où les dépenses totales en accélérateurs d’inférence IA dépasseront celles en accélérateurs d’entraînement IA, à mesure que les entreprises réorientent leurs priorités de la construction de modèles vers leur déploiement à grande échelle.
Le marché mondial de l’inférence IA, évalué à 97,24 milliards de dollars en 2024, devrait atteindre 253,75 milliards de dollars d’ici 2030, selon une analyse sectorielle citée par l’Educational Technology and Change Journal. Cette croissance fulgurante est portée par des systèmes d’« IA agentique » qui perçoivent, raisonnent et agissent en continu de manière autonome, créant une demande constante de puissance de calcul en temps réel.
Huang a décrit l’entreprise comme « la première entreprise au monde verticalement intégrée mais horizontalement ouverte », indiquant l’intention de Nvidia de contrôler l’ensemble de la pile d’infrastructure d’IA tout en maintenant des partenariats, selon Constellation Research. La stratégie inclut le Vera Rubin DSX AI Factory Reference Design, fournissant des conceptions modulaires pour permettre aux clients de bâtir une infrastructure d’IA à grande échelle et économe en énergie.
Cette orientation place également Nvidia face à une concurrence émergente d’entreprises comme Meta, qui développent des puces d’inférence sur mesure. Les applications clés qui stimulent la demande incluent les véhicules autonomes, le diagnostic médical, les copilotes en temps réel et les systèmes de recommandation alimentés par l’IA opérant à l’échelle mondiale, couvrant des secteurs allant de la santé aux télécommunications.
Sources
- constellationr.com
- etcjournal.com

