{"id":178578,"date":"2026-01-28T12:53:54","date_gmt":"2026-01-28T11:53:54","guid":{"rendered":"https:\/\/liora.io\/de\/?p=178578"},"modified":"2026-02-06T04:33:53","modified_gmt":"2026-02-06T03:33:53","slug":"groessenreduzierung-wie-funktioniert-das","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/groessenreduzierung-wie-funktioniert-das","title":{"rendered":"Gr\u00f6\u00dfenreduzierung: Wie funktioniert das?"},"content":{"rendered":"<p><strong>Die Datenanalyse kann als experimentelle Wissenschaft betrachtet werden, bei der Eigenschaften nach ihrer Beobachtung nachgewiesen werden und heuristisch Codes zur Interpretation der Ergebnisse erstellt werden. Im Bereich des maschinellen Lernens (Machine Learning) und der Datenanalyse spielt die Dimensionsreduktion eine wesentliche Rolle, um komplexe Datens\u00e4tze zu vereinfachen.<\/strong><\/p>\nDie Grundidee der <strong>Dimensionsreduktion<\/strong> besteht darin, mehrdimensionale Daten in einem Raum mit viel geringerer Dimension darzustellen, w\u00e4hrend wichtige und relevante Informationen erhalten bleiben.\n\nBevor wir uns in weitere mathematische Details vertiefen, ist es wichtig, einige Schl\u00fcsselbegriffe zu verstehen.\n<h2 class=\"wp-block-heading\" id=\"h-das-vokabular-der-dimensionsreduktion\">Das Vokabular der Dimensionsreduktion<\/h2>\n<strong>Dimensionsraum:<\/strong> Die Anzahl der Merkmale oder Variablen, die ein Objekt in einem Datenbestand beschreiben. Eine Datenbank, die Merkmale \u00fcber Personen sammelt, kann z. B. Variablen wie Alter, Einkommen, Adresse, Geschlecht und Bildungsniveau enthalten.\n\nDies definiert einen f\u00fcnfdimensionalen Raum.\nBei der Projektion werden die Daten aus einem hochdimensionalen Raum mithilfe von Techniken zur Dimensionsreduktion in einen niedrigdimensionalen Raum umgewandelt. Durch diese Transformation k\u00f6nnen die Daten kompakter dargestellt werden, w\u00e4hrend wichtige <strong>Informationen<\/strong> erhalten bleiben.\n\n<strong>Orthogonalit\u00e4t<\/strong> ist eine mathematische Eigenschaft, bei der zwei Vektoren oder zwei R\u00e4ume senkrecht zueinander stehen. Im Zusammenhang mit der Dimensionsreduktion wird Orthogonalit\u00e4t h\u00e4ufig verwendet, um Variablen oder Komponenten zu beschreiben, die unkorreliert zueinander sind.\n\nWenn die Daten in einer Tabelle dargestellt werden, erfolgt die Verringerung der Dimensionalit\u00e4t durch eine Verringerung der Anzahl der Spalten. Wenn unser <a href=\"https:\/\/liora.io\/de\/dataset-definition\">Dataset<\/a> aus mehr als drei Variablen besteht, wird es mit zunehmender Dimension schwieriger, es zu visualisieren. So ist es nicht m\u00f6glich, einen Datensatz mit 13 Attributen zu visualisieren, wohl aber mit nur 2 oder 3 Attributen. Das Ziel ist also, diese Daten auf die 2 oder 3 Achsen zu projizieren, die f\u00fcr den Informationsgehalt am wichtigsten sind, um die Darstellung der Daten so nah wie m\u00f6glich an den Daten in gro\u00dfen Dimensionen zu halten.\n\nEin sehr einfaches Beispiel: Angenommen, wir haben einen <a href=\"https:\/\/liora.io\/de\/datasets-top-5-websites-fuer-qualitativ-hochwertige-datensaetze\">Datensatz mit Informationen \u00fcber Sch\u00fcler,<\/a> der die folgenden 5 Variablen enth\u00e4lt, und jeder Sch\u00fcler wird durch eine Zeile im Datensatz repr\u00e4sentiert, wobei jede Variable einer Spalte entspricht.\n\n<style type=\"text\/css\">\n.tg  {border-collapse:collapse;border-spacing:0;}<br \/>\n.tg td{border-color:black;border-style:solid;border-width:1px;font-family:Arial, sans-serif;font-size:14px;<br \/>\n  overflow:hidden;padding:10px 5px;word-break:normal;}<br \/>\n.tg th{border-color:black;border-style:solid;border-width:1px;font-family:Arial, sans-serif;font-size:14px;<br \/>\n  font-weight:normal;overflow:hidden;padding:10px 5px;word-break:normal;}<br \/>\n.tg .tg-80go{font-family:\"Trebuchet MS\", Helvetica, sans-serif !important;text-align:left;vertical-align:top}<br \/>\n.tg .tg-4lje{font-family:\"Trebuchet MS\", Helvetica, sans-serif !important;text-align:center;vertical-align:top}<br \/>\n.tg .tg-7t5w{background-color:#6200c9;color:#efefef;font-family:\"Trebuchet MS\", Helvetica, sans-serif !important;font-size:20px;<br \/>\n  font-weight:bold;text-align:center;vertical-align:top}<br \/>\n.tg .tg-pm1a{background-color:#6200c9;color:#efefef;font-family:\"Trebuchet MS\", Helvetica, sans-serif !important;font-size:20px;<br \/>\n  font-weight:bold;text-align:left;vertical-align:top}<br \/>\n<\/style>\n<table style=\"undefined;table-layout: fixed; width: 600px\">\n<colgroup>\n<col style=\"width: 75px\">\n<col style=\"width: 50px\">\n<col style=\"width: 50px\">\n<col style=\"width: 50px\">\n<col style=\"width: 50px\">\n<col style=\"width: 75px\">\n<\/colgroup>\n<thead>\n<tr>\n<th>Student<\/th>\n<th>Alter<\/th>\n<th>Gr\u00f6sse<\/th>\n<th>Gewicht<\/th>\n<th>Mathe<\/th>\n<th>Wissenschaft<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td>Etudiant 1<\/td>\n<td>18<\/td>\n<td>165<\/td>\n<td>60<\/td>\n<td>85<\/td>\n<td>90<\/td>\n<\/tr>\n<tr>\n<td>Etudiant 2<\/td>\n<td>20<\/td>\n<td>170<\/td>\n<td>65<\/td>\n<td>75<\/td>\n<td>80<\/td>\n<\/tr>\n<tr>\n<td>Etudiant 3<\/td>\n<td>19<\/td>\n<td>175<\/td>\n<td>70<\/td>\n<td>90<\/td>\n<td>95<\/td>\n<\/tr>\n<tr>\n<td>Etudiant 4<\/td>\n<td>22<\/td>\n<td>180<\/td>\n<td>75<\/td>\n<td>80<\/td>\n<td>70<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\nNach Anwendung der Hauptkomponentenanalyse zur <strong>Reduzierung der Dimension<\/strong> k\u00f6nnten wir einen neuen Datensatz mit weniger Variablen erhalten, z. B. indem wir nur die ersten beiden Hauptkomponenten beibehalten. Wir w\u00fcrden den folgenden Datensatz erhalten:\n\n<style type=\"text\/css\">\n.tg  {border-collapse:collapse;border-spacing:0;}<br \/>\n.tg td{border-color:black;border-style:solid;border-width:1px;font-family:Arial, sans-serif;font-size:14px;<br \/>\n  overflow:hidden;padding:10px 5px;word-break:normal;}<br \/>\n.tg th{border-color:black;border-style:solid;border-width:1px;font-family:Arial, sans-serif;font-size:14px;<br \/>\n  font-weight:normal;overflow:hidden;padding:10px 5px;word-break:normal;}<br \/>\n.tg .tg-80go{font-family:\"Trebuchet MS\", Helvetica, sans-serif !important;text-align:left;vertical-align:top}<br \/>\n.tg .tg-4lje{font-family:\"Trebuchet MS\", Helvetica, sans-serif !important;text-align:center;vertical-align:top}<br \/>\n.tg .tg-7t5w{background-color:#6200c9;color:#efefef;font-family:\"Trebuchet MS\", Helvetica, sans-serif !important;font-size:20px;<br \/>\n  font-weight:bold;text-align:center;vertical-align:top}<br \/>\n.tg .tg-pm1a{background-color:#6200c9;color:#efefef;font-family:\"Trebuchet MS\", Helvetica, sans-serif !important;font-size:20px;<br \/>\n  font-weight:bold;text-align:left;vertical-align:top}<br \/>\n<\/style>\n<table style=\"undefined;table-layout: fixed; width: 600px\">\n<colgroup>\n<col style=\"width: 75px\">\n<col style=\"width: 200px\">\n<col style=\"width: 200px\">\n<\/colgroup>\n<thead>\n<tr>\n<th>Student<\/th>\n<th>Hauptkomponente 1<\/th>\n<th>Hauptkomponente 2<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td>Student 1<\/td>\n<td>0.23<\/td>\n<td>-0.12<\/td>\n<\/tr>\n<tr>\n<td>Student 2<\/td>\n<td>-0.12<\/td>\n<td>0.10<\/td>\n<\/tr>\n<tr>\n<td>Student 3<\/td>\n<td>0.30<\/td>\n<td>0.25<\/td>\n<\/tr>\n<tr>\n<td>Student 4<\/td>\n<td>-0.41<\/td>\n<td>-0.23<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\nSo l\u00e4sst sich dieser Datensatz leicht in einem zweidimensionalen Diagramm darstellen:\n<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2026\/01\/image5-3-1.png\" title=\"\" alt=\"\" loading=\"lazy\"><figcaption><\/figcaption><\/figure>\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Gr\u00f6\u00dfenreduzierung lernen<\/a><\/div><\/div>\n\n<h2 class=\"wp-block-heading\" id=\"h-mehr-uber-die-hauptkomponentenanalyse-principal-component-analysis-pca\">Mehr \u00fcber die Hauptkomponentenanalyse (Principal Component Analysis, PCA)<\/h2>\nEine der am h\u00e4ufigsten verwendeten Methoden ist die Hauptkomponentenanalyse<strong> (Principal Component Analysis, PCA).<\/strong> Die PCA versucht, die Hauptrichtungen der Daten zu finden, die den gr\u00f6\u00dften Teil der beobachteten Varianz erkl\u00e4ren. Dazu verwenden wir den Begriff der Kovarianz.\n\nStellen wir unseren Datensatz, der aus n Beobachtungen (Stichproben) und p Variablen (Merkmalen) besteht, durch eine Matrix X der Gr\u00f6\u00dfe n x p dar. Vor der Anwendung der PCA wird oft empfohlen, die Variablen so zu standardisieren, dass sie einen Mittelwert von Null und eine Einheitsvarianz haben, damit Variablen mit unterschiedlichen Skalen die Analyse nicht dominieren.\n\nWir berechnen die Kovarianzmatrix von X, die wir mit C bezeichnen. Diese Matrix misst die linearen Beziehungen zwischen den Variablen. Sie wird mit der folgenden Formel berechnet: C = 1\/nXT X\nWir suchen nach den <strong>Eigenvektoren der Kovarianzmatrix C.<\/strong> Eigenvektoren sind Richtungen im Raum der Variablen, die die Varianz der Daten beschreiben. Die Eigenvektoren werden normalisiert, so dass ihre Norm 1 ist.\nWir ordnen diese Eigenvektoren in absteigender Reihenfolge ihres zugeh\u00f6rigen Eigenwerts an: \u03bd1 in Verbindung mit \u03bb1, \u03bd2 in Verbindung mit \u03bb2 und \u03bb1\u2265\u03bb2 und so weiter. Je h\u00f6her der Eigenwert, desto gr\u00f6\u00dfer ist die Varianz, die durch die entsprechende Richtung erkl\u00e4rt wird.\nMan w\u00e4hlt eine Anzahl k von Hauptkomponenten (oft 1, 2 oder 3), die man behalten m\u00f6chte, und w\u00e4hlt die ersten k Eigenvektoren (\u03bd1, \u03bd2, &#8230; , \u03bdk) aus. Diese Eigenvektoren bilden eine Orthonormalbasis in dem neuen Raum mit reduzierter Dimension. Somit sind die neu erzeugten Variablen unkorreliert. Wir bezeichnen W als die Matrix, die von diesen ersten k Eigenvektoren gebildet wird.\nWir wollen nun unsere Daten in diesen neuen Raum projizieren, dessen eine Basis aus den Vektoren (\u03bd1, \u03bd2, &#8230; , \u03bdk) besteht. Um die Originaldaten in diesen Raum mit reduzierter Dimension zu projizieren, verwenden wir die folgende lineare Transformation: Y = XW, wobei Y den Koordinaten unserer Daten infolge der Projektion entspricht.\n\nF\u00fcr weitere Details \u00fcber die PCA kannst du unseren Artikel lesen, der speziell dieser Methode gewidmet ist.\n\nEs gibt noch andere Methoden zur <strong>Dimensionsreduktion,<\/strong> die bekanntesten sind nach wie vor :\n<ul>\n \t<li><strong>LDA (linear discriminant analysis):<\/strong> Die lineare Diskriminanzanalyse, die es erm\u00f6glicht, voneinander unkorrelierte Richtungen zu identifizieren. Sie zielt darauf ab, eine lineare Projektion der Daten zu finden, die die Trennung zwischen den Klassen maximiert und gleichzeitig die Varianz innerhalb der Klassen minimiert.<\/li>\n \t<li><strong>T-SNE (t-Distributed Stochastic Neighbor Embedding):<\/strong> <a href=\"https:\/\/liora.io\/de\/t-sne-algorithmus\">T-SNE<\/a> ist eine nichtlineare Methode zur Dimensionsreduktion, mit der hochdimensionale Daten in einem Raum mit reduzierter Dimension (typischerweise 2D oder 3D) dargestellt werden k\u00f6nnen. Weitere Details zu diesem Thema findest du in diesem Artikel. t-NSE ist besonders geeignet, um komplexe Strukturen und nichtlineare Beziehungen in den Daten zu visualisieren.<\/li>\n<\/ul>\n<h2 class=\"wp-block-heading\" id=\"h-grenzen-und-schwierigkeiten-der-verkleinerung\">Grenzen und Schwierigkeiten der Verkleinerung<\/h2>\nEs ist wichtig zu beachten, dass die <strong>Verkleinerung der Dimension<\/strong> einen Kompromiss zwischen der Vereinfachung der Daten und dem Verlust von Informationen darstellt. Bei einer Verkleinerung der Dimension k\u00f6nnen einige subtile Informationen oder spezifische Details verloren gehen. Daher ist es entscheidend, das richtige Gleichgewicht zu finden, indem man eine angemessene Anzahl von Hauptkomponenten ausw\u00e4hlt, die den Gro\u00dfteil der relevanten Informationen erfassen.\n\nJede Methode hat ihre Vorteile und Grenzen, und die Wahl der Methode h\u00e4ngt vom spezifischen Kontext und den Zielen der Datenanalyse ab.\n\nWenn dir dieser Artikel gefallen hat, kannst du diese Methoden in unseren Kursen <a href=\"https:\/\/liora.io\/de\/weiterbildung-data-analyst\">Data Analyst<\/a> und Data Scientist genauer kennen lernen. Du kannst sie dir gerne ansehen!\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Data Science Weiterbildung<\/a><\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Die Datenanalyse kann als experimentelle Wissenschaft betrachtet werden, bei der Eigenschaften nach ihrer Beobachtung nachgewiesen werden und heuristisch Codes zur Interpretation der Ergebnisse erstellt werden. Im Bereich des maschinellen Lernens (Machine Learning) und der Datenanalyse spielt die Dimensionsreduktion eine wesentliche Rolle, um komplexe Datens\u00e4tze zu vereinfachen.<\/p>\n","protected":false},"author":78,"featured_media":178580,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-178578","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/178578","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/78"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=178578"}],"version-history":[{"count":3,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/178578\/revisions"}],"predecessor-version":[{"id":216487,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/178578\/revisions\/216487"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/178580"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=178578"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=178578"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}