{"id":163759,"date":"2026-02-19T12:51:49","date_gmt":"2026-02-19T11:51:49","guid":{"rendered":"https:\/\/liora.io\/de\/?p=163759"},"modified":"2026-02-19T15:38:11","modified_gmt":"2026-02-19T14:38:11","slug":"neuronale-netze-einfach-erklaert","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/neuronale-netze-einfach-erklaert","title":{"rendered":"Neuronale Netze einfach erkl\u00e4rt"},"content":{"rendered":"\n<p><strong>Hier findest Du unseren vierten Artikel \u00fcber Deep Learning. Lies die ersten Artikel, um Deine Kenntnisse \u00fcber<a href=\"https:\/\/liora.io\/definition-deep-learning\/#introduction\"> Deep Learning, Machine Learning und K\u00fcnstlicher Intelligenz<\/a> sowie \u00fcber die <a href=\"https:\/\/liora.io\/de\/deep-neural-network\">Funktionsweise und Anwendungen von neuronalen Netzwerken <\/a>aufzufrischen. Lies auch noch einmal den Artikel \u00fcber das CNN: Convolutional Neural Network. Und jetzt los mit unserem heutigen Thema !&nbsp;<\/strong><\/p>\n\n\n\n<p>Nun wirst Du im Detail erfahren, wie <b>k\u00fcnstliche neuronale Netze<\/b> lernen und wie sie <b>sich in einem Netz artikulieren<\/b>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-neuronale-netze-eine-kurze-auffrischung\">Neuronale Netze &#8211; eine kurze Auffrischung<\/h2>\n\n\n\n<p><b>Multilayer perceptron <\/b>(mehrlagiges Perzeptron) ist ein Stapel von Perzeptronen, die in eine Schicht gelegt werden. Nehmen wir das folgende Beispiel, um das Konzept zu veranschaulichen:<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter is-resized\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2020\/06\/DP_2.png\" alt=\"Deep learning neuronnes\" style=\"width:auto;height:350px\" \/><\/figure>\n\n\n\n<p>Das Modell besteht aus der Klassifizierung (in 10 Klassen) von Bildern handgeschriebener Zahlen. Die gr\u00fcnen Quadrate sind die Eingabeschicht unseres Modells, d. h. die Werte der Pixel. Die mittlere und die Ausgabeschicht sind Perzeptrons, die durch graue runde Kreise dargestellt werden. Die letzte Schicht hat 10 Neuronen, da es 10 Klassen gibt, und gibt die entsprechende Wahrscheinlichkeit f\u00fcr jede Klasse zur\u00fcck.<\/p>\n\n\n\n<p>Wir k\u00f6nnen das Modell sehr einfach in Tensorflow implementieren:<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter is-resized is-style-not-rounded\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2020\/06\/DP.png\" alt=\"Tensorflow\" style=\"width:auto;height:350px\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-trainieren-des-modells\">Trainieren des Modells<\/h2>\n\n\n\n<p>Um unser Modell zu trainieren, d.h. die passenden Gewichte zu finden, m\u00fcssen wir eine Funktion definieren, <b>die den Fehler unseres Modells quantifiziert.<\/b> Normalerweise verwenden wir bei Klassifikationsproblemen die Funktion &#8222;cross-entropy&#8220;, um den Fehler zu messen.<\/p>\n\n\n\n<p>Unser Optimierungsproblem besteht darin, die Gewichte unseres Modells zu finden, die unsere Fehlerfunktion minimieren:<\/p>\n\n\n\n<pre class=\"wp-block-preformatted\">J(w)<\/pre>\n\n\n\n<div style=\"height:1px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Mit Deep Learning sind wir mit <b>komplexen Minimierungsproblemen konfrontiert,<\/b> f\u00fcr die es <b>keine explizite L\u00f6sung<\/b> gibt. Daher werden Optimierungsmethoden wie der <b>Gradientenabstieg <\/b>verwendet, um sie zu <b>l\u00f6sen<\/b>.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-a89b3969 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/weiterbildung\">Neuronale Netze lernen<\/a><\/div>\n<\/div>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-gradientenabstieg-um-abzusteigen-muss-man-nach-unten-gehen\">Gradientenabstieg: Um abzusteigen, muss man nach unten gehen<\/h2>\n\n\n\n<p>Um das Konzept des Gradientenabstiegs auf intuitive Weise kennenzulernen, kannst Du unser Video zu diesem Thema schauen:<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><div class=\"wp-block-embed__wrapper\">\n<iframe title=\"Gradient descent, how neural networks learn | Deep Learning Chapter 2\" width=\"500\" height=\"281\" src=\"https:\/\/www.youtube.com\/embed\/IHZwWFHWa-w?start=1&#038;feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<p>In unserem obigen Beispiel kann man sich die <b>Verlustfunktion<\/b> (Fehlerfunktion) als einen Berg vorstellen. Die <b>Koordinaten<\/b> (Modellgewichte) des Punktes mit der geringsten H\u00f6he&nbsp; werden gesucht. Der Wert des Gradienten der Verlustfunktion entspricht der Richtung und Winkel des Hangs des Berges an einem bestimmten Punkt:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Wenn die <b>Norm des Gradienten<\/b> hoch ist, ist der Hang sehr steil.<\/li>\n\n\n\n<li>Wenn die Norm des Gradienten niedrig ist, ist der Hang nur wenig geneigt.<\/li>\n\n\n\n<li>Wenn die Gradientennorm null ist, befindet man sich auf einer flachen Ebene (Minimum).<\/li>\n<\/ul>\n\n\n\n<p>Daher besteht der Gradientenabstieg anf\u00e4nglich darin, die Gewichte zuf\u00e4llig zu w\u00e4hlen und die Inverse des Gradienten bei jeder Iteration zu verfolgen:<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-large is-resized is-style-not-rounded\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" width=\"1024\" height=\"98\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/02\/codecogseqn-1024x98.png\" alt=\"\" class=\"wp-image-218759\" style=\"width:auto;height:50px\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/02\/codecogseqn-1024x98.png 1024w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/02\/codecogseqn-300x29.png 300w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/02\/codecogseqn-768x74.png 768w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/02\/codecogseqn-440x42.png 440w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/02\/codecogseqn-785x75.png 785w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/02\/codecogseqn-210x20.png 210w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/02\/codecogseqn-666x64.png 666w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/02\/codecogseqn.png 1083w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>Mit:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Wt: die Parameter unseres Modells<\/li>\n\n\n\n<li>\u03b7: Schrittweite des Gradienten, d. h. die Lernrate.<\/li>\n\n\n\n<li>J: Verlustfunktion<\/li>\n<\/ul>\n\n\n\n<p><b>Mit einer zu gro\u00dfem oder zu kleinem Schrittweite wird der MLP-Algorithmus zu keiner zufriedenstellenden L\u00f6sung konvergieren<\/b>. Die richtige Schrittweise zu finden, ist die ganze Herausforderung des Deep Learning.<\/p>\n\n\n\n<p>Zusammenfassend kann man sagen, dass sich das k\u00fcnstliche Neuron, auch Perzeptron genannt, wie ein lineares Klassifikationsmodell verh\u00e4lt. Das mehrschichtige Perzeptron hingegen verbindet und stapelt Perzeptrons in Form von Schichten, um die Komplexit\u00e4t der Regelerstellung zu erh\u00f6hen.<\/p>\n\n\n\n<p>Nachdem wir die Parameter des Modells definiert haben, haben wir gesehen, dass es notwendig ist, den Fehler des Modells zu quantifizieren. Um dies zu erreichen, verwendet Deep Learning haupts\u00e4chlich Gradientenabstieg, um die Gewichte so anzupassen, dass die Verlustfunktion minimiert wird.<\/p>\n\n\n\n<p>Um die Mathematik hinter diesem Gradientenabstiegsalgorithmus und die Bedeutung der Lernrate zu erforschen, kannst Du <strong><a href=\"https:\/\/liora.io\/de\/gradient-boosting-algorithmen\">diesen Artikel<\/a><\/strong> lesen.<\/p>\n\n\n\n<p>Im Folgenden stellen wir Dir Transfer Learning vor, eine erfolgreiche Lernkategorie, die in Deep Learning verwendet wird und sich stark am menschlichen Lernen zu orientieren scheint!<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Artikel: <strong><a href=\"https:\/\/liora.io\/de\/deep-learning-oder-tiefes-lernen-was-ist-das-denn\">Deep Learning oder Tiefes Lernen: Was ist das denn?<\/a><\/strong><\/li>\n\n\n\n<li>Artikel: <a href=\"https:\/\/liora.io\/de\/convolutional-neural-network-2\">Convolutional Neural Network<\/a><\/li>\n\n\n\n<li>Artikel: <strong><a href=\"https:\/\/liora.io\/de\/transfer-learning\">Transfert Learning<\/a><\/strong><\/li>\n<\/ol>\n\n\n\n<p><a href=\"https:\/\/liora.io\/de\/weiterbildung-deep-learning\"><br>Unsere Weiterbildung in Deep Learning entdecken<br><\/a><\/p>\n\n\n\n<p>? Auch interessant:<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td><a href=\"https:\/\/liora.io\/de\/deep-learning-oder-tiefes-lernen-was-ist-das-denn\" target=\"_blank\" rel=\"noopener\">Deep Learning &#8211; was ist das eigentlich ?<\/a><\/td><\/tr><tr><td><a href=\"https:\/\/liora.io\/de\/deep-fake-gefahren-massnahmen-und-rechtslage\" target=\"_blank\" rel=\"noopener\">Deep Fake Gefahren<\/a><\/td><\/tr><tr><td><a href=\"https:\/\/liora.io\/de\/python-deep-learning-die-basics\" target=\"_blank\" rel=\"noopener\">Python Deep Learning Basics<\/a><\/td><\/tr><tr><td><a href=\"https:\/\/liora.io\/de\/style-transfer-deep-learning\" target=\"_blank\" rel=\"noopener\">Style Transfer Deep Learning<\/a><\/td><\/tr><tr><td><a href=\"https:\/\/liora.io\/de\/alphacode-deepminds-neues-ki-tool-zum-schreiben-von-computercode\" target=\"_blank\" rel=\"noopener\">Alphacode Deepminds<\/a><\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<script type=\"application\/ld+json\">\n{\n  \"@context\": \"https:\/\/schema.org\",\n  \"@type\": \"FAQPage\",\n  \"mainEntity\": [\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Neuronale Netze \u2013 eine kurze Auffrischung\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Ein Multilayer Perzeptron (MLP) ist ein Stapel von Perzeptronen in Schichten. Am Beispiel der Klassifizierung handgeschriebener Zahlen: Die Eingabeschicht besteht aus Pixelwerten, die verborgenen Schichten und die Ausgabeschicht (mit 10 Neuronen f\u00fcr 10 Klassen) sind Perzeptrons, die Wahrscheinlichkeiten f\u00fcr jede Klasse zur\u00fcckgeben. Solche Modelle lassen sich einfach in TensorFlow implementieren.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Trainieren des Modells\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Zum Trainieren eines Modells (Finden der optimalen Gewichte) wird eine Fehlerfunktion ben\u00f6tigt. Bei Klassifikationsproblemen verwendet man meist die Cross-Entropy-Funktion. Das Optimierungsproblem besteht darin, die Gewichte zu finden, die diese Fehlerfunktion minimieren. Da es daf\u00fcr keine explizite L\u00f6sung gibt, werden Methoden wie der Gradientenabstieg eingesetzt.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Gradientenabstieg: Um abzusteigen, muss man nach unten gehen\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Der Gradientenabstieg l\u00e4sst sich bildlich vorstellen: Die Verlustfunktion ist ein Berg, gesucht wird der tiefste Punkt. Der Gradient zeigt die Richtung und Steilheit des Hangs an. Ausgehend von zuf\u00e4lligen Gewichten folgt man iterativ der inversen Richtung des Gradienten. Die Lernrate (Schrittweite) ist entscheidend \u2013 zu gro\u00df oder zu klein f\u00fchrt zu keiner optimalen L\u00f6sung. Die richtige Schrittweite zu finden, ist eine zentrale Herausforderung im Deep Learning.\"\n      }\n    }\n  ]\n}\n<\/script>\n","protected":false},"excerpt":{"rendered":"<p>Hier findest Du unseren vierten Artikel \u00fcber Deep Learning. Lies die ersten Artikel, um Deine Kenntnisse \u00fcber Deep Learning, Machine Learning und K\u00fcnstlicher Intelligenz sowie \u00fcber die Funktionsweise und Anwendungen von neuronalen Netzwerken aufzufrischen. Lies auch noch einmal den Artikel \u00fcber das CNN: Convolutional Neural Network. Und jetzt los mit unserem heutigen Thema ! Inhaltsverzeichnis: [&hellip;]<\/p>\n","protected":false},"author":55,"featured_media":218555,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-163759","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/163759","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/55"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=163759"}],"version-history":[{"count":5,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/163759\/revisions"}],"predecessor-version":[{"id":218770,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/163759\/revisions\/218770"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/218555"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=163759"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=163759"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}