{"id":164690,"date":"2026-01-28T12:58:18","date_gmt":"2026-01-28T11:58:18","guid":{"rendered":"https:\/\/liora.io\/de\/?p=164690"},"modified":"2026-02-06T04:31:40","modified_gmt":"2026-02-06T03:31:40","slug":"autoencoders","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/autoencoders","title":{"rendered":"Autoencoders \u2013 Modelle f\u00fcr un\u00fcberwachtes Lernen"},"content":{"rendered":"<h2 class=\"wp-block-heading\" id=\"h-heute-beschaftigen-wir-uns-mit-einer-familie-von-nicht-uberwachten-lernmethoden-dem-autocodierern\">Heute besch\u00e4ftigen wir uns mit einer Familie von nicht \u00fcberwachten Lernmethoden, dem Autocodierern.<\/h2>\n<iframe title=\"Qu&#039;est-ce qu&#039;un autoencoder ? R\u00e9seaux de neurones et apprentissage non supervis\u00e9, on vous dit tout !\" width=\"500\" height=\"281\" src=\"https:\/\/www.youtube.com\/embed\/XpiruMSG2FY?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<h3 class=\"wp-block-heading\" id=\"h-autoencoder-definition\">Autoencoder : Definition<\/h3>\nSelbst-Encoder sind besondere neuronale Netze, die genau die <strong>gleiche Anzahl an Neuronen auf ihrer Eingabe- und Ausgabeschicht <\/strong>haben. Das Ziel eines Auto-Encoders ist es, eine Ausgabe zu haben, die der Eingabe so nahe wie m\u00f6glich kommt!\n\nDas Lernen ist also &#8222;selbst\u00fcberwacht&#8220;, da der zu minimierende Loss die Kosten f\u00fcr die Rekonstruktion zwischen Ausgabe und Eingabe ist. Die Daten m\u00fcssen also nicht gelabelt werden, da sie ihre eigenen Labels sind, was dieses Modell also zu einem nicht \u00fcberwachten Modell macht.\n<h3 class=\"wp-block-heading\" id=\"h-was-ist-die-architektur-eines-autokodierers\">Was ist die Architektur eines Autokodierers ?<\/h3>\nEin Autoencoder hat eine sehr spezielle Architektur, da die verborgenen Schichten kleiner sind als die Eingabeschichten. Diese Art von Architektur wird als <b>&#8222;Bottleneck&#8220;-Architektur <\/b>bezeichnet. Man kann einen Autoencoder in zwei Teile links und rechts von diesem &#8222;Bottleneck&#8220; zerlegen.\n\nDer linke Teil wird <b>Encoder <\/b>genannt. Der Encoder wandelt die Eingabe in eine Darstellung in einem Raum mit geringerer Dimension um, der latenter Raum genannt wird. Der Encoder komprimiert also die Eingabe in eine weniger aufwendige Darstellung.\n\n<b>Der rechte Teil wird Decoder genannt, da er mithilfe der latenten Darstellung der Eingabe eine Ausgabe rekonstruieren soll, die der Eingabe am ehesten entspricht.<\/b>\n<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"768\" height=\"422\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/illu_autoencoder_schema-19.webp\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/illu_autoencoder_schema-19.webp 768w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/illu_autoencoder_schema-19-300x165.webp 300w\" sizes=\"(max-width: 768px) 100vw, 768px\"><figcaption>Schema in Anlehnung an einen Kurs von Fabien Moutarde &#8211; Mines de Paris (2021)<\/figcaption><\/figure>\nW\u00e4hrend des Lernens lernt der Autocoder also, dass er versucht, so viele <strong>Informationen wie m\u00f6glich zwischen der Eingabe und dem latenten Raum zu behalten<\/strong>, damit der Decoder die wichtigsten Informationen hat, um das Bild zu rekonstruieren. So lernt der Encoder die wichtigsten Komponenten einer Eingabe, um die bestm\u00f6gliche Kompression zu erhalten.\n\nAuf den ersten Blick \u00e4hnelt dies stark der <a href=\"https:\/\/liora.io\/acp\">Hauptkomponentenanalyse<\/a> (PCA oder englisch PCA). Autoencoder erlauben jedoch das Hinzuf\u00fcgen von Nichtlinearit\u00e4ten durch Aktivierungsfunktionen und ihre neuronale Netzstruktur, was einen einfachen Autoencoder von einer PCA unterscheidet.\n<h3 class=\"wp-block-heading\" id=\"h-verallgemeinerung-selbstkodierer-debutoren\">Verallgemeinerung: Selbstkodierer Debutoren<\/h3>\nDieses Prinzip des Auto-Encoders wurde auf vielf\u00e4ltigere Aufgaben verallgemeinert, insbesondere auf Aufgaben der Rauschunterdr\u00fcckung (im Englischen spricht man von denoising AE). Nachdem man gelernt hat, wie man <strong>die Eingaben optimal darstellt<\/strong>, indem man dem Auto-Encoder verrauschte Eingaben liefert, ist er in der Lage, entrauschte Daten auszugeben, die der urspr\u00fcnglichen Eingabe sehr nahekommen.\n<h3 class=\"wp-block-heading\" id=\"h-generative-modelle-der-latente-raum\">Generative Modelle: Der latente Raum<\/h3>\nAuto-Encoder werden auch oft verwendet, um <strong>neue Eingaben zu erstellen<\/strong>. In diesem Fall benutzt du den Decoderteil, um aus den Vektoren des latenten Raums Ausgaben zu erzeugen. Durch die Wahl von Vektoren, die der Eingabe &#8222;nahe&#8220; sind, wird die Ausgabe dieser sehr \u00e4hnlich sein. Wenn du zum Beispiel Vektoren f\u00fcr Eingaben des gleichen Typs verwendest, wird die Ausgabe auch so aussehen.\n<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"768\" height=\"194\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/rqGLkXyxh2g0Jlq2W8OPsfdkeUX7bOfcPGEhVfVFavcQRnO2rHNG5dBtpnef-d1RZe79w2dIsQ1HfIyijE_G2chm2OKl4z9T8422I2d4gJA9-OeASaFwHd9H9FpgzRXjk.webp\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/rqGLkXyxh2g0Jlq2W8OPsfdkeUX7bOfcPGEhVfVFavcQRnO2rHNG5dBtpnef-d1RZe79w2dIsQ1HfIyijE_G2chm2OKl4z9T8422I2d4gJA9-OeASaFwHd9H9FpgzRXjk.webp 768w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/rqGLkXyxh2g0Jlq2W8OPsfdkeUX7bOfcPGEhVfVFavcQRnO2rHNG5dBtpnef-d1RZe79w2dIsQ1HfIyijE_G2chm2OKl4z9T8422I2d4gJA9-OeASaFwHd9H9FpgzRXjk-300x76.webp 300w\" sizes=\"(max-width: 768px) 100vw, 768px\">\n\n<figcaption>Verteilung im latenten Raum<\/figcaption><\/figure>\nDiese Arithmetik ist eine der Eigenschaften des latenten Raums und man erh\u00e4lt noch interessantere Ergebnisse. Da man die Vektoren des latenten Raums mit ihrer Ausgabe aus dem Decoder verkn\u00fcpfen kann, \u00fcbertr\u00e4gt sich diese Arithmetik auf die Ausgabe! Wenn man z. B. einen Vektor, der einem Mann mit Brille im Raum entspricht, mit einem, der einer Frau ohne Brille entspricht, addiert und den Vektor, der einem Mann ohne Brille entspricht, subtrahiert, erh\u00e4lt man Bilder von Frauen mit Brille.\n\n<img decoding=\"async\" width=\"605\" height=\"286\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/without-glasses.webp\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/without-glasses.webp 605w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/without-glasses-300x142.webp 300w\" sizes=\"(max-width: 605px) 100vw, 605px\">\n\nEs gibt auch eine kontinuierliche Transformation zwischen dem latenten Raum und der Ausgabe. Wenn man einen Vektor im latenten Raum kontinuierlich variiert, erh\u00e4lt man eine kontinuierliche Transformation im Ausgaberaum.\n\n<img decoding=\"async\" width=\"605\" height=\"269\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/Interpolating.webp\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/Interpolating.webp 605w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/Interpolating-300x133.webp 300w\" sizes=\"(max-width: 605px) 100vw, 605px\">\n\nDer Vorteil der Auto-Encoder, die wir hier kennengelernt haben, ist, dass sie keine gelabelten Daten ben\u00f6tigen. Die Erstellung von Daten ist oft sehr zeitaufw\u00e4ndig, da eine Person Hunderte oder Tausende von Daten einzeln beschriften muss.\n\nAu\u00dferdem kann der Decoderteil, wie gerade erw\u00e4hnt, als generatives Modell dienen, was bei <strong>Data Augmentation n\u00fctzlich sein kann, um andere<\/strong> Modelle zu trainieren.\n\nAbgesehen von diesen Anwendungsbeispielen ist das Anwendungsfeld f\u00fcr Autoencoder sehr gro\u00df und vielversprechend.\n\nWenn dieser Artikel dein Interesse geweckt hat und du mehr \u00fcber die M\u00f6glichkeiten von Deep Learning erfahren m\u00f6chtest, dann wird dir unsere Data Scientist-Ausbildung alle Werkzeuge und Kenntnisse vermitteln, die du brauchst, um dich zum Data Scientist ausbilden zu lassen.\n\nWenn du Fragen zu unseren Schulungen hast, kannst du dich gerne an uns wenden und einen Termin mit unserem Team vereinbaren.\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"\/rdv\">Termin vereinbaren<\/a><\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Heute besch\u00e4ftigen wir uns mit einer Familie von nicht \u00fcberwachten Lernmethoden, dem Autocodierern. Autoencoder : Definition Selbst-Encoder sind besondere neuronale Netze, die genau die gleiche Anzahl an Neuronen auf ihrer Eingabe- und Ausgabeschicht haben. Das Ziel eines Auto-Encoders ist es, eine Ausgabe zu haben, die der Eingabe so nahe wie m\u00f6glich kommt! Das Lernen ist [\u2026]<\/p>\n","protected":false},"author":47,"featured_media":164692,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-164690","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/164690","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/47"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=164690"}],"version-history":[{"count":3,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/164690\/revisions"}],"predecessor-version":[{"id":216465,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/164690\/revisions\/216465"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/164692"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=164690"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=164690"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}