{"id":164683,"date":"2023-12-20T14:46:53","date_gmt":"2023-12-20T13:46:53","guid":{"rendered":"https:\/\/liora.io\/de\/?p=164683"},"modified":"2026-02-06T06:07:25","modified_gmt":"2026-02-06T05:07:25","slug":"recurrent-neural-network","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/recurrent-neural-network","title":{"rendered":"Recurrent Neural Network (RNN): Was genau ist das?"},"content":{"rendered":"<p><strong>Hast du Daniel vermisst? Das trifft sich gut, wir n\u00e4mlich auch! Heute beantwortet unser, durch die Data Science Weiterbildung Sch\u00fcler begleitende Experte diese Frage: Wie funktionieren rekurrente neuronale Netze?<\/strong><\/p>\t\t\n\t\t<p>Wenn du Fan unseres Blogs bist, wei\u00dft du bereits, was ein neuronales Netz ist (<a href=\"https:\/\/liora.io\/perceptron\">falls nicht, z\u00f6gere nicht, diesen Artikel vorher zu lesen<\/a>), aber was bringt das Adjektiv rekurrent zu diesem Modell? In diesem Artikel werden wir uns damit befassen, wie rekursive neuronale Netze, kurz RNN genannt, zu einem klassischen Modell im Deep Learning geworden sind.<\/p>\t\t\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Entdecke unsere Kurse<\/a><\/div><\/div>\n\n\t\t\t<h3>Einige Anwendungen eines RNN<\/h3>\t\t\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"768\" height=\"322\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/Sans-titre-1-Recupere-07.webp\" alt=\"\" loading=\"lazy\">\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\n\t\t<ul><li style=\"font-weight: 400\"><i>one to many <\/i>Die RNN erh\u00e4lt <b>eine einzige Eingabe <\/b>und gibt <b>mehrere Ausgaben <\/b>zur\u00fcck,&nbsp;<\/li><\/ul><p>das klassische Beispiel f\u00fcr dieses Verfahren ist die Bildunterschrift<\/p><ul><li style=\"font-weight: 400\"><i>many to one Man <\/i>hat mehrere Eingaben und es gibt nur eine Ausgabe. Ein Beispiel f\u00fcr diesen Modus ist die <b>Gef\u00fchlsanalyse von Texten<\/b>. Dabei wird ein Gef\u00fchl aus einer Gruppe von W\u00f6rtern identifiziert und das Wort bestimmt, das fehlt, um den Satz zu beenden, den du als Eingabe erhalten hast. Um mehr \u00fcber die Gef\u00fchlsanalyse zu erfahren, besuche <a href=\"https:\/\/liora.io\/machine-learning-sentiment-analysis\"><b>diesen Artikel<\/b><\/a>.&nbsp;<\/li><\/ul><ul><li style=\"font-weight: 400\"><i>many to many <\/i>Schlie\u00dflich k\u00f6nnen wir mehrere Eingaben nehmen und mehrere Ausgaben erhalten. Wir haben nicht unbedingt die gleiche Anzahl an Input- und Output-Neuronen. Wir k\u00f6nnen hier die \u00dcbersetzung eines Textes nennen, aber wir k\u00f6nnen auch ehrgeizig sein und planen, ein Musikwerk mit seinem Anfang zu beenden.<\/li><\/ul><p>&nbsp;<\/p><p>Perfekt, wir haben gesehen, wie ein RNN funktioniert und wie viele Anwendungen es gibt, aber ist es auch perfekt? Leider hat es einen gro\u00dfen Nachteil, das sogenannte <b>Kurzzeitged\u00e4chtnis, f\u00fcr das <\/b>wir ein Beispiel aus dem Bereich TALN (<i>Automatische Verarbeitung nat\u00fcrlicher Sprache<\/i>) sehen werden.<\/p>\t\t\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Entdecke unsere Kurse<\/a><\/div><\/div>\n\n\t\t\t<h3>Ist der RNN ein Goldfisch?<\/h3>\t\t\n\t\t<p>Nehmen wir den Fall der Satzvervollst\u00e4ndigung.&nbsp;<\/p><p><i>Ich liebe Sushi und werde es in &#8230;<\/i><\/p><p>Der RNN kann sich das Wort Sushi nicht merken, um Japan vorherzusagen, weil er sich das Wort <i>Sushi nicht gemerkt <\/i>hat. Um es zu schaffen, Japan zu bestimmen, muss der RNN ein st\u00e4rkeres Ged\u00e4chtnis haben. Dies k\u00f6nnen wir erreichen, indem wir die Neuronen komplexer machen.&nbsp; Insbesondere werden wir uns den Fall des <b>LSTM<\/b>(<i>Long Short Term Memory<\/i>) ansehen. Zus\u00e4tzlich zum herk\u00f6mmlichen versteckten Zustand <i>h_t <\/i>werden wir einen zweiten Zustand namens <i>c_t<\/i> hinzuf\u00fcgen. Hier steht <i>h_t <\/i>f\u00fcr das <b>Kurzzeitged\u00e4chtnis <\/b>des Neurons und <i>c_t f\u00fcr <\/i>das <b>Langzeitged\u00e4chtnis<\/b>.<\/p><p>&nbsp;<\/p><p>?Auch interessant:<\/p><table dir=\"ltr\" border=\"1\" cellspacing=\"0\" cellpadding=\"0\" data-sheets-root=\"1\"><colgroup><col width=\"1116\"><\/colgroup><tbody><tr><td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;Convolutional Neural Network (CNN): Alles, was Du wissen solltest&quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/convolutional-neural-network-2\"><a href=\"https:\/\/liora.io\/de\/convolutional-neural-network-2\" target=\"_blank\" rel=\"noopener\">Convolutional Neural Network (CNN): Alles, was Du wissen solltest<\/a><\/td><\/tr><tr><td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;Was genau ist ein Deep Neural Network?&quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/deep-neural-network\"><a href=\"https:\/\/liora.io\/de\/deep-neural-network\" target=\"_blank\" rel=\"noopener\">Was genau ist ein Deep Neural Network?<\/a><\/td><\/tr><tr><td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;Graph Neural Networks (GNN): Was ist das? &quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/graph-neural-networks-gnn-was-ist-das\"><a href=\"https:\/\/liora.io\/de\/graph-neural-networks-gnn-was-ist-das\" target=\"_blank\" rel=\"noopener\">Graph Neural Networks (GNN): Was ist das? <\/a><\/td><\/tr><tr><td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;Neuronale Netze &amp; Automatische Suche nach neuronaler Architektur: Unser Leitfaden &quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/neuronale-netze-automatische-suche-nach-neuronaler-architektur-unser-leitfaden\"><a href=\"https:\/\/liora.io\/de\/neuronale-netze-automatische-suche-nach-neuronaler-architektur-unser-leitfaden\" target=\"_blank\" rel=\"noopener\">Neuronale Netze &amp; Automatische Suche nach neuronaler Architektur: Unser Leitfaden <\/a><\/td><\/tr><\/tbody><\/table><p>&nbsp;<\/p><p>Wir wollen hier nicht auf die technischen \u00dcberlegungen zu diesem erschreckenden Schema eingehen. Das Wichtigste ist, dass wir eine viel komplexere Zelle haben, die es uns erm\u00f6glicht, das Speicherproblem zu l\u00f6sen. Mit dem LSTM lassen wir h_t und c_t durch <b>Gatter <\/b>laufen, von denen es vier gibt.<\/p><ul><li style=\"font-weight: 400\">Das erste Tor entfernt unn\u00f6tige Informationen, es ist das <b>forget gate<\/b>.<\/li><li style=\"font-weight: 400\">Das zweite Tor, speichert die neue Information, das <b>store gate<\/b>.<\/li><li style=\"font-weight: 400\">Das dritte Tor aktualisiert die Informationen, die wir dem RNN geben werden, mit dem Ergebnis des forget gate und des store gate, es ist das <b>update gate<\/b>.<\/li><li style=\"font-weight: 400\">Das letzte Tor (<b>output gate<\/b>) gibt uns <i>y_t <\/i>und <i>h_t<\/i>.<\/li><\/ul><p>Dieser langwierige Prozess erm\u00f6glicht es uns, die Informationen zu kontrollieren, die wir im Laufe der Zeit aufbewahren und weitergeben.<\/p><p>Der RNN kann dank seiner Lernf\u00e4higkeit herausfinden, was er behalten und was er vergessen sollte. <b>LSTM (<\/b>Long Short Term Memory) ist nicht einzigartig, wir k\u00f6nnen auch <b>GRU (<\/b>Gated Recurrent Unit) verwenden, nur die Architektur der Zelle \u00e4ndert sich.<\/p><p>Fassen wir nun zusammen, was wir gesehen haben. RNNs sind eine besondere Art von neuronalen Netzen, die es erm\u00f6glichen, Daten zu verarbeiten, die nicht <b>unabh\u00e4ngig <\/b>sind und keine <b>feste Gr\u00f6\u00dfe <\/b>haben. Dennoch sind Standard-RNNs durch das Problem des <b>Kurzspeichers <\/b>ziemlich eingeschr\u00e4nkt, das wir durch die Verwendung komplexerer Zellen wie <b>LSTM <\/b>oder <b>GRU <\/b>l\u00f6sen k\u00f6nnen.<\/p><p>Es gibt eine Parallele zu einem anderen System neuronaler Netze: <b>Convolutive Neuronal Networks (<\/b>CNN). CNNs sind daf\u00fcr bekannt, dass sie <b>r\u00e4umliche Informationen <\/b>teilen, w\u00e4hrend RNNs <b>zeitliche Informationen <\/b>teilen. Du kannst mehr \u00fcber CNNs in <a href=\"https:\/\/liora.io\/convolutional-neural-network\"><b>diesem Artikel<\/b><\/a> erfahren. Wenn du RNNs in der Praxis anwenden m\u00f6chtest, kannst du an unserem Data Scientist-Kurs teilnehmen.<\/p>\t\t\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/weiterbildung-data-scientist\">Erfahre mehr \u00fcber unsere Ausbildung zum Data Scientist<\/a><\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Hast du Daniel vermisst? Das trifft sich gut, wir n\u00e4mlich auch! Heute beantwortet unser, durch die Data Science Weiterbildung Sch\u00fcler begleitende Experte diese Frage: Wie funktionieren rekurrente neuronale Netze? Wenn du Fan unseres Blogs bist, wei\u00dft du bereits, was ein neuronales Netz ist (falls nicht, z\u00f6gere nicht, diesen Artikel vorher zu lesen), aber was bringt [&hellip;]<\/p>\n","protected":false},"author":47,"featured_media":164684,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-164683","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/164683","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/47"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=164683"}],"version-history":[{"count":1,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/164683\/revisions"}],"predecessor-version":[{"id":217052,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/164683\/revisions\/217052"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/164684"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=164683"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=164683"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}