{"id":219816,"date":"2026-02-27T10:34:11","date_gmt":"2026-02-27T09:34:11","guid":{"rendered":"https:\/\/liora.io\/de\/warum-googles-spanner-engine-alles-veraendert"},"modified":"2026-02-27T11:19:50","modified_gmt":"2026-02-27T10:19:50","slug":"warum-googles-spanner-engine-alles-veraendert","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/warum-googles-spanner-engine-alles-veraendert","title":{"rendered":"Warum Googles Spanner-Engine alles ver\u00e4ndert"},"content":{"rendered":"<p><strong>Google Cloud hat heute die \u00f6ffentliche Vorschau seiner Spanner Columnar Engine vorgestellt und bietet analytische Abfragegeschwindigkeiten, die bis zu 200-mal schneller sind, w\u00e4hrend Transaktionsf\u00e4higkeiten in Echtzeit erhalten bleiben. Die neue Dual-Speicher-Architektur erm\u00f6glicht es der Cloud Spanner-Datenbank, sowohl operative als auch analytische Workloads gleichzeitig und ohne Leistungseinbu\u00dfen zu verarbeiten. Dies positioniert sie als eine einheitliche L\u00f6sung f\u00fcr Organisationen, die komplexe Datenpipelines zwischen transaktionalen und analytischen Systemen eliminieren m\u00f6chten.<\/strong><\/p>\n<p>Die Verbesserung wird erzielt, indem Daten gleichzeitig in zeilen- und spaltenbasierten Formaten vorgehalten werden, wobei <strong>Spanners Query Processor<\/strong> Anfragen automatisch an die optimale Speicherebene weiterleitet. Kurze transaktionale Abfragen nutzen weiterhin den Row Store f\u00fcr Hochdurchsatz-Operationen, w\u00e4hrend analytische Abfragen laut der Google Cloud-Dokumentation den Columnar Store f\u00fcr umfangreiche Scans und Aggregationen verwenden.<\/p>\n<p>Das System nutzt <strong>vektorisierte Ausf\u00fchrung<\/strong> und verarbeitet Daten in Batches statt zeilenweise, um seine Leistungsgewinne zu erzielen. Die Google Cloud-Benchmarks mit Clickbench zeigten, dass bestimmte Abfragen auf einem einzelnen Knoten um das <strong>46,3-fache<\/strong> und <strong>58,6-fache<\/strong> schneller liefen, was die allgemeinen Aussagen zur bis zu 200-fachen Beschleunigung bei analytischen Workloads st\u00fctzt.<\/p>\n<h3 style=\"margin-top:2rem;margin-bottom:1rem;\">Apache Iceberg Integration<\/h3>\n<p>Eine zentrale Architekturentscheidung betrifft die Integration von <strong>Spanner<\/strong> mit <strong>Apache Iceberg Lakehouses<\/strong> \u00fcber ein Muster, das Google als \u201eReverse ETL\u201c bezeichnet. Anstatt Iceberg-Dateien in Data Lakes direkt abzufragen, nimmt Spanner kuratierte Daten aus dem Cold Storage auf und transformiert sie in operative Hot Data f\u00fcr den Zugriff mit geringer Latenz, wie das Unternehmen in seinem Blogbeitrag erkl\u00e4rte.<\/p>\n<p>Die Integration erfolgt \u00fcber mehrere Pfade, wobei die Komponente <strong>BigQuery BigLake<\/strong> als prim\u00e4rer Connector zum Lesen von Iceberg-Tabellen in Google Cloud Storage dient. Organisationen k\u00f6nnen auch <strong>Dataflow-Templates<\/strong> f\u00fcr komplexe Pipelines nutzen oder Daten aus Plattformen wie <strong>Databricks UniForm<\/strong> und <strong>Snowflake<\/strong> \u00fcber BigQuery anbinden, wodurch die Interoperabilit\u00e4t des Systems erweitert wird.<\/p>\n<h3 style=\"margin-top:2rem;margin-bottom:1rem;\">Kommerzieller Einfluss und Verf\u00fcgbarkeit<\/h3>\n<p>Zu den ersten Anwendern z\u00e4hlen <strong>Palo Alto Networks<\/strong>, die Daten zur Bedrohungserkennung in Echtzeit ben\u00f6tigen, sowie <strong>Vodafone<\/strong>, die darauf abzielen, analytische und operative Daten zu verkn\u00fcpfen, um das Kundenerlebnis zu verbessern, so die Ank\u00fcndigung von Google Cloud.<\/p>\n<p>Die Spanner Columnar Engine ist derzeit in der <strong>Public Preview<\/strong> verf\u00fcgbar, wobei die Preisgestaltung auf dem Speicherverbrauch basiert. Wenn das Feature aktiviert ist, entstehen zus\u00e4tzliche spaltenbasierte Repr\u00e4sentationen, die zu den Standard-Spanner-Speicherpreisen abgerechnet werden, hei\u00dft es in der Google Cloud-Dokumentation. W\u00e4hrend der Vorschau sind Einschr\u00e4nkungen zu beachten, wie etwa Instanz-Backups, die keine Columnar-Daten enthalten, sowie potenzielle Leistungsbeeintr\u00e4chtigungen durch hochfrequente Updates oder zuf\u00e4llige Inserts.<\/p>\n<p>Das System bietet zudem eine direkte Integration mit <strong>Vertex AI<\/strong>, die es Nutzern erm\u00f6glicht, Machine-Learning-Modelle innerhalb von SQL-Abfragen \u00fcber die ML.PREDICT-Funktion aufzurufen, womit Spanner sowohl als Datenbank als auch als Serving Layer f\u00fcr KI-gesteuerte Anwendungen positioniert wird.<\/p>\n<div style=\"margin-top:3rem;padding-top:1.5rem;border-top:1px solid #e2e4ea;\">\n<h3 style=\"margin:0 0 0.75rem;font-size:1.1rem;letter-spacing:0.08em;text-transform:uppercase;\">\n    Sources<br \/>\n  <\/h3>\n<ul style=\"margin:0;padding-left:1.2rem;list-style:disc;\">\n<li>Google Cloud Blog<\/li>\n<li>Google Cloud Documentation<\/li>\n<\/ul>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Google Cloud hat heute die \u00f6ffentliche Vorschau seiner Spanner Columnar Engine vorgestellt und bietet analytische Abfragegeschwindigkeiten, die bis zu 200-mal schneller sind, w\u00e4hrend Transaktionsf\u00e4higkeiten in Echtzeit erhalten bleiben. Die neue Dual-Speicher-Architektur erm\u00f6glicht es der Cloud Spanner-Datenbank, sowohl operative als auch analytische Workloads gleichzeitig und ohne Leistungseinbu\u00dfen zu verarbeiten. Dies positioniert sie als eine einheitliche L\u00f6sung f\u00fcr Organisationen, die komplexe Datenpipelines zwischen transaktionalen und analytischen Systemen eliminieren m\u00f6chten.<\/p>\n","protected":false},"author":87,"featured_media":219811,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472,2475],"class_list":["post-219816","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki","category-nachrichten"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/219816","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/87"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=219816"}],"version-history":[{"count":1,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/219816\/revisions"}],"predecessor-version":[{"id":219820,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/219816\/revisions\/219820"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/219811"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=219816"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=219816"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}