Snowflake, Amazon Web Services und NVIDIA haben am Montag eine Partnerschaft angekündigt, um leistungsstarkes, GPU-beschleunigtes Computing direkt in unternehmensweite Datenspeicher zu bringen und Sicherheitsrisiken, die beim Verschieben sensibler Informationen entstehen, zu eliminieren. Die Zusammenarbeit konzentriert sich auf die neuen EC2 G7e Instanzen von AWS, die von NVIDIAs neuesten Blackwell GPUs angetrieben werden und die Snowflake in seine KI Data Cloud integrieren wird, um KI-Workloads zu beschleunigen und gleichzeitig strikte Data Governance aufrechtzuerhalten.
Die neuen Amazon EC2 G7e Instanzen sind laut AWS News Blog nun in den AWS Regionen US East (N. Virginia) und US East (Ohio) allgemein verfügbar und bieten Unternehmen sofortigen Zugriff über On-Demand, Savings Plans oder Spot Instanz-Modelle. Jede Instanz kann mit bis zu acht NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs konfiguriert werden und liefert insgesamt 768 GB GPU-Speicher pro Instanz.
Die technischen Spezifikationen bedeuten einen erheblichen Sprung bei Enterprise-KI-Fähigkeiten. Laut NVIDIA verfügen die Blackwell GPUs über Tensor Cores der fünften Generation mit neuer FP4 Präzision für verbesserte KI Performance und RT Cores der vierten Generation für beschleunigtes Grafik-Rendering. Die Architektur umfasst PCI Express Gen 5 für schnelle Datenübertragung und unterstützt Multi-Instance GPU Technologie, wodurch eine einzelne GPU in bis zu vier vollständig isolierte Instanzen partitioniert werden kann.
Marktauswirkungen

Die Partnerschaft adressiert eine zentrale Herausforderung bei der Enterprise-KI-Einführung: die Sicherheitsrisiken und Leistungseinbußen durch das Verschieben sensibler Daten zwischen Systemen. Indem GPU Computing direkt dorthin gebracht wird, wo die Daten liegen und zwar in Snowflakes Umgebung, können Unternehmen alles vom Large Language Model Training bis zu Engineering-Simulationen verarbeiten, ohne ihre Informationen zusätzlichen Sicherheitslücken auszusetzen.
Dieser architektonische Ansatz könnte die Art und Weise verändern, wie Unternehmen KI-Workloads bereitstellen. Anstatt Daten zwischen verschiedenen Cloud-Diensten oder Virtual Private Clouds zu übertragen, können Organisationen ihre Daten nun innerhalb von Snowflakes etabliertem Governance Framework behalten und gleichzeitig auf die Rechenleistung zugreifen, die für anspruchsvolle KI-Anwendungen benötigt wird, darunter generative KI, agentenbasierte KI Systeme und professionelles 3D-Rendering.
Sicherheits- und Compliance-Vorteile
Die Integration bewahrt Snowflakes bestehende Sicherheitszertifizierungen, einschließlich SOC 2 Type II, HIPAA und DSGVO-Konformität, so die Unternehmen. Das NVIDIA Multi-Instance GPU Feature bietet Hardware-Isolation und verhindert, dass Workloads unterschiedlicher Nutzer oder Abteilungen sich gegenseitig beeinträchtigen, eine entscheidende Voraussetzung für Unternehmen, die mehrere sensible KI-Anwendungen auf gemeinsam genutzter Infrastruktur betreiben.
AWS plant, die Software-Unterstützung über aktuelle Deep Learning AMIs, Amazon Elastic Container Service und Amazon Elastic Kubernetes Service hinaus zu erweitern; eine Integration mit Amazon SageMaker ist laut AWS News Blog für die Zukunft geplant.
Sources
- aws.amazon.com/blogs/aws
- nvidia.com

