Snowflake, Amazon Web Services et NVIDIA ont dévoilé lundi un partenariat visant à apporter un traitement accéléré par GPU directement au stockage de données des entreprises, éliminant les risques de sécurité liés au déplacement d’informations sensibles. La collaboration s’articule autour des nouvelles instances EC2 G7e d’AWS, alimentées par les derniers GPU Blackwell de NVIDIA, que Snowflake intégrera à son AI Data Cloud afin d’accélérer les tâches d’intelligence artificielle tout en maintenant une gouvernance stricte des données.
Les nouvelles instances Amazon EC2 G7e sont désormais en disponibilité générale dans les régions AWS US East (N. Virginia) et US East (Ohio), selon l’AWS News Blog, offrant aux entreprises un accès immédiat via des modèles On-Demand, Savings Plans, ou Spot Instance. Chaque instance peut être configurée avec jusqu’à huit GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, pour un total de 768 Go de mémoire GPU par instance.
Les spécifications techniques constituent un bond significatif pour les capacités d’IA d’entreprise. Selon NVIDIA, les GPU Blackwell disposent de cœurs Tensor de cinquième génération avec la nouvelle précision FP4 pour des performances IA améliorées et de cœurs RT de quatrième génération pour un rendu graphique accéléré. L’architecture inclut le PCI Express Gen 5 pour un transfert de données rapide et prend en charge la technologie Multi-Instance GPU, permettant de partitionner un seul GPU en jusqu’à quatre instances totalement isolées.
Impact sur le marché

Le partenariat répond à un défi majeur de l’adoption de l’IA en entreprise : les risques de sécurité et les baisses de performances liés au déplacement de données sensibles entre systèmes. En apportant le calcul GPU directement là où résident les données dans l’environnement de Snowflake, les entreprises peuvent tout traiter, de l’entraînement des grands modèles linguistiques (LLM) aux simulations d’ingénierie, sans exposer leurs informations à des failles de sécurité supplémentaires.
Cette approche architecturale pourrait redéfinir la façon dont les entreprises déploient les projets d’IA. Plutôt que de transférer des données entre différents services cloud ou des Virtual Private Clouds (VPC), les organisations peuvent désormais conserver leurs données au sein du cadre de gouvernance établi de Snowflake tout en accédant à la puissance de calcul nécessaire pour des applications d’IA exigeantes, y compris l’intelligence artificielle générative, les systèmes d’IA agentiques et le rendu 3D professionnel.
Avantages en matière de sécurité et de conformité
L’intégration conserve les certifications de sécurité existantes de Snowflake, notamment SOC 2 Type II, HIPAA et la conformité RGPD, selon les entreprises. La fonctionnalité NVIDIA Multi-Instance GPU offre une isolation au niveau matériel, empêchant les processus de différents utilisateurs ou départements d’interférer les uns avec les autres, une exigence essentielle pour les entreprises exécutant plusieurs applications d’IA sensibles sur une infrastructure partagée.
AWS prévoit d’étendre la prise en charge logicielle au-delà des AMI Deep Learning actuelles, d’Amazon Elastic Container Service et d’Amazon Elastic Kubernetes Service, avec une intégration Amazon SageMaker prévue pour l’avenir, selon l’AWS News Blog.
Sources
- aws.amazon.com/blogs/aws
- nvidia.com

