{"id":174344,"date":"2026-02-18T11:32:21","date_gmt":"2026-02-18T10:32:21","guid":{"rendered":"https:\/\/liora.io\/de\/?p=174344"},"modified":"2026-02-23T07:55:35","modified_gmt":"2026-02-23T06:55:35","slug":"shapley-additive-explanations-shap-was-ist-das","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/shapley-additive-explanations-shap-was-ist-das","title":{"rendered":"Shapley Additive Explanations\u00a0(SHAP), Was ist das ?"},"content":{"rendered":"\n<p><strong>Shapley Additive Explanations, allgemein bekannt als SHAP, ist eine Technik, mit der das Ergebnis von Machine-Learning-Modellen erkl\u00e4rt werden kann. Sie basiert auf den Shapley-Werten, die sich der Spieltheorie bedienen, um den Kredit f\u00fcr die Vorhersage eines Modells den einzelnen Merkmalen oder Merkmalswerten zuzuordnen.<\/strong><\/p>\n\n\n\n<p>Die Funktionsweise von <strong>Shapley Additive Explanations<\/strong> besteht darin, das Ergebnis eines Modells durch die Summen der Auswirkungen der einzelnen Merkmale zu zerlegen. <strong>Shapley Additive Explanations<\/strong> berechnet einen Wert, der den Beitrag jedes Merkmals zum Ergebnis des Modells darstellt. Diese Werte k\u00f6nnen verwendet werden, um die Bedeutung der einzelnen Merkmale zu verstehen und das Ergebnis des Modells einem Menschen zu erkl\u00e4ren. Dies bietet insbesondere Agenturen und Teams, die ihren Kunden oder Managern gegen\u00fcber Rechenschaft ablegen, einen Mehrwert.<\/p>\n\n\n\n<p><strong>Shapley Additive Explanations SHAP<\/strong> hat mehrere interessante Eigenschaften, wie z. B. seine Neutralit\u00e4t gegen\u00fcber Modellen. Dadurch kann es auf jedes Lernmodell angewendet werden, konsistente Erkl\u00e4rungen liefern und mit komplexem Modellverhalten umgehen (wenn Merkmale z. B. miteinander interagieren).<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-wozu-dient-shapley-additive-explanations\">Wozu dient Shapley Additive Explanations ?<\/h2>\n\n\n\n<p><strong>Shapley Additive Explanations<\/strong> hat viele Vorteile f\u00fcr <a href=\"https:\/\/liora.io\/de\/data-scientist-vs-data-analyst-gemeinsamkeiten-und-unterschiede\">Data Science-Profis<\/a>. Zun\u00e4chst einmal kann diese Technik die Vorhersagen von <a href=\"https:\/\/liora.io\/de\/deep-learning-vs-machine-learning\">Machine-Learning-Modellen<\/a> auf eine f\u00fcr Menschen verst\u00e4ndliche Weise erkl\u00e4ren. Indem sie jedem eingegebenen Merkmal einen Wert zuweist, zeigt sie, wie und in welchem Ausma\u00df jedes Merkmal zum Endergebnis der Vorhersage beigetragen hat.<\/p>\n\n\n\n<p>So kann das Team nachvollziehen, wie das Modell seine Entscheidung getroffen hat, und kann die wichtigsten Merkmale identifizieren. Wie bereits erl\u00e4utert, wird dieses Modell als agnostisch (neutral) bezeichnet. Es kann mit jedem beliebigen Machine-Learning-Modell verwendet werden. Du musst dir also keine Gedanken \u00fcber die Struktur des Modells machen, um das Ergebnis der Vorhersage mit<strong> Shapley Additive Explanations<\/strong> &#8211; SHAP zu verstehen. Au\u00dferdem ist das Modell konsistent. Du kannst den erzeugten Erkl\u00e4rungen also vertrauen, unabh\u00e4ngig davon, welches Modell untersucht wird.<\/p>\n\n\n\n<p>Schlie\u00dflich ist Shapley Additive Explanations &#8211; SHAP besonders n\u00fctzlich, um mit komplexen Verhaltensweisen umzugehen. Du kannst diese Technik verwenden, um zu verstehen, wie sich verschiedene Merkmale gemeinsam auf die Vorhersage des Modells auswirken.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/weiterbildung\/data-ki\/data-engineer\">Data Engineer Weiterbildung<\/a><\/div>\n<\/div>\n\n\n<h2 class=\"wp-block-heading\" id=\"wie-kann-man-shap-nutzen-um-vorhersagen-zu-erklaeren\">Wie kann man SHAP nutzen, um Vorhersagen zu erkl&auml;ren?<\/h2>\n\n\n\n<p>So kannst du <a href=\"https:\/\/christophm.github.io\/interpretable-ml-book\/shap.html\">Shapley Additive Explanations<\/a> verwenden, um die Vorhersagen eines <a href=\"https:\/\/liora.io\/de\/adversarial-examples-im-machine-learning\">Machine-Learning-Modells<\/a> zu erkl\u00e4ren:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Installiere das SHAP-Paket mithilfe von &#8218;pip install shap&#8216;.<\/li>\n\n\n\n<li>Importiere das<strong> SHAP-Paket<\/strong> und andere ben\u00f6tigte Bibliotheken, wie Numpy und Matplotlib.<\/li>\n\n\n\n<li>Lade dein Machine-Learning-Modell und bereite die Eingabedaten vor, die du erkl\u00e4ren m\u00f6chtest.<\/li>\n\n\n\n<li>Erstelle ein SHAP-Objekt mithilfe der Funktion &#8217;shap.TreeExplainer&#8216; f\u00fcr baumbasierte Modelle oder &#8217;shap.KernelExplainer&#8216; f\u00fcr andere Arten von Modellen.<\/li>\n\n\n\n<li>Rufe die &#8218;explain&#8216;-Methode des SHAP-Objekts auf und \u00fcbergebe ihr die Eingabedaten, die du erkl\u00e4ren m\u00f6chtest.<\/li>\n\n\n\n<li>Diese Methode gibt eine Matrix von SHAP-Werten zur\u00fcck, die den Einfluss jedes Merkmals auf die Vorhersage des Modells darstellt.<\/li>\n\n\n\n<li>Verwende die SHAP-Werte, um die Ergebnisse zu visualisieren und zu interpretieren. Du kannst z. B. die Funktion &#8217;shap.summary_plot&#8216; verwenden, um ein zusammenfassendes Diagramm zu erzeugen, das die relative Bedeutung jedes Merkmals zeigt.<\/li>\n\n\n\n<li>Du kannst auch die Funktion &#8217;shap.dependence_plot&#8216; verwenden, um zu visualisieren, wie ein bestimmtes Merkmal die Vorhersage des Modells in Abh\u00e4ngigkeit von der Auspr\u00e4gung dieses Merkmals beeinflusst.<\/li>\n<\/ul>\n\n\n\n<p>Diese Technik bleibt einfach und ist erschreckend effektiv.<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe title=\"Shapley Additive Explanations (SHAP)\" width=\"500\" height=\"281\" src=\"https:\/\/www.youtube.com\/embed\/VB9uV-x0gtg?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n<h3 class=\"wp-block-heading\" id=\"beispiel-fuer-die-verwendung-von-shap\">Beispiel f&uuml;r die Verwendung von SHAP<\/h3>\n\n\n\n<p>Im Folgenden findest du ein Beispiel f\u00fcr die Verwendung von SHAP, das auf Entscheidungsb\u00e4umen basiert. Um das Beispiel besser zu verstehen, sprechen wir \u00fcber <a href=\"https:\/\/shap-lrjball.readthedocs.io\/en\/latest\/generated\/shap.TreeExplainer.html\">TreeExplainer.<\/a><\/p>\n\n\n\n<p>TreeExplainer verwendet einen Ansatz, der auf der Approximation der Gesamtheit der B\u00e4ume basiert, um die<strong> SHAP-Werte<\/strong> f\u00fcr jedes Merkmal zu berechnen. Er eignet sich daher, um die Vorhersagen von Machine-Learning-Modellen mithilfe von Entscheidungsb\u00e4umen zu erkl\u00e4ren. Er ist auch n\u00fctzlich, um Regressions- und Klassifikationsmodelle, <a href=\"https:\/\/liora.io\/de\/random-forest-definition\">Random Forests<\/a> und Gradient Boosting Machines zu erkl\u00e4ren.<\/p>\n\n\n\n<p>Hier ist ein einfaches Beispiel f\u00fcr die Verwendung von SHAP mit einem auf Entscheidungsb\u00e4umen basierenden <a href=\"https:\/\/liora.io\/de\/logistische-regression-was-ist-das-denn\">Regressionsmodell<\/a> :<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2023\/02\/random-forest.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>import shap<br>import numpy as np<br>import matplotlib.pyplot as plt<\/p>\n\n\n\n<p># Lade dein Modell<br>model = load_model()<\/p>\n\n\n\n<p># Bereite die Eingabedaten vor, die du erkl\u00e4ren m\u00f6chtest.<br>X = prepare_data()<\/p>\n\n\n\n<p># Erstelle ein SHAP-Objekt, indem du den TreeExplainer verwendest.<br>explainer = shap.TreeExplainer(model)<\/p>\n\n\n\n<p># Rufe die explain-Methode auf und \u00fcbergebe ihr die Eingabedaten.<br>shap_values = explainer.explain(X)<\/p>\n\n\n\n<p># Zeige ein zusammenfassendes Diagramm der relativen Bedeutung jedes Merkmals an.<br>shap.summary_plot(shap_values, X)<\/p>\n\n\n\n<p># Zeige das Abh\u00e4ngigkeitsdiagramm f\u00fcr das Merkmal &#8222;age&#8220; an.<br>shap.dependence_plot(&#8222;age&#8220;, shap_values, X)<\/p>\n\n\n\n<p>Dieses Beispiel berechnet die SHAP-Werte f\u00fcr jedes Element von X. Es zeigt dann ein zusammenfassendes Diagramm der relativen Bedeutung jedes Merkmals und ein Abh\u00e4ngigkeitsdiagramm f\u00fcr die Kategorie &#8222;age&#8220;.<\/p>\n\n\n<h2 class=\"wp-block-heading\" id=\"fazit\">Fazit<\/h2>\n\n\n\n<p>SHAP (Shapley Additive Explanations) ist also eine Technik, mit der die Vorhersagen von <a href=\"https:\/\/liora.io\/de\/bagging-im-machine-learning-was-ist-das\">Machine-Learning-Modellen<\/a> auf vielseitige und leistungsstarke Weise erkl\u00e4rt werden k\u00f6nnen. Diese Methode ist agnostisch, konsistent und kann mit dem komplexen Verhalten von Modellen umgehen.<\/p>\n\n\n\n<p>SHAP ist besonders n\u00fctzlich, um die Funktionsweise eines Modells zu verstehen, wichtige Merkmale zu identifizieren und das Ergebnis der Vorhersagen anderen Personen in deinem Team oder deinen Kunden zu erkl\u00e4ren.<\/p>\n\n\n\n<p>Nachdem du SHAP kennengelernt hast, m\u00f6chtest du es vielleicht auch beherrschen. Um das zu tun, solltest du mehr \u00fcber die Liora-Kurse erfahren, die Machine Learning in den Lehrplan integrieren.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/weiterbildung\/data-ki\">Entdecke unsere Weiterbildungen<\/a><\/div>\n<\/div>\n\n\n\n<script type=\"application\/ld+json\">\n{\n  \"@context\": \"https:\/\/schema.org\",\n  \"@type\": \"FAQPage\",\n  \"mainEntity\": [\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Wozu dient Shapley Additive Explanations ?\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"SHAP hat drei Hauptvorteile f\u00fcr Data-Science-Profis: Es erkl\u00e4rt Modellvorhersagen menschlich verst\u00e4ndlich, indem es jedem Merkmal einen Wert zuweist und zeigt, wie und in welchem Ausma\u00df es zum Endergebnis beigetragen hat. Es ist modellagnostisch (neutral) und kann mit jedem Machine-Learning-Modell verwendet werden. Es ist konsistent und liefert vertrauensw\u00fcrdige Erkl\u00e4rungen, unabh\u00e4ngig vom untersuchten Modell. Es kann komplexe Verhaltensweisen behandeln und zeigt, wie verschiedene Merkmale gemeinsam die Vorhersage beeinflussen.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Wie kann man SHAP nutzen, um Vorhersagen zu erkl\u00e4ren?\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Die Verwendung erfolgt in sieben Schritten: 1. SHAP-Paket mit 'pip install shap' installieren. 2. SHAP, NumPy und Matplotlib importieren. 3. Modell laden und Eingabedaten vorbereiten. 4. SHAP-Objekt erstellen (shap.TreeExplainer f\u00fcr baumbasierte Modelle, shap.KernelExplainer f\u00fcr andere). 5. explain-Methode mit Eingabedaten aufrufen. 6. SHAP-Werte-Matrix erhalten. 7. Visualisierung und Interpretation mit Funktionen wie shap.summary_plot (relative Bedeutung) und shap.dependence_plot (Einfluss eines Merkmals abh\u00e4ngig von seiner Auspr\u00e4gung).\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Fazit\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"SHAP ist eine vielseitige, leistungsstarke Technik zur Erkl\u00e4rung von Machine-Learning-Vorhersagen. Sie ist modellagnostisch, konsistent und kann komplexes Modellverhalten behandeln. Besonders n\u00fctzlich ist sie zum Verst\u00e4ndnis der Modellfunktionsweise, zur Identifikation wichtiger Merkmale und zur Erkl\u00e4rung von Vorhersagen gegen\u00fcber Teammitgliedern oder Kunden. Liora-Kurse integrieren Machine Learning in den Lehrplan.\"\n      }\n    }\n  ]\n}\n<\/script>\n","protected":false},"excerpt":{"rendered":"<p>Shapley Additive Explanations, allgemein bekannt als SHAP, ist eine Technik, mit der das Ergebnis von Machine-Learning-Modellen erkl\u00e4rt werden kann. Sie basiert auf den Shapley-Werten, die sich der Spieltheorie bedienen, um den Kredit f\u00fcr die Vorhersage eines Modells den einzelnen Merkmalen oder Merkmalswerten zuzuordnen. Die Funktionsweise von Shapley Additive Explanations besteht darin, das Ergebnis eines Modells [&hellip;]<\/p>\n","protected":false},"author":47,"featured_media":218120,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-174344","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/174344","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/47"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=174344"}],"version-history":[{"count":4,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/174344\/revisions"}],"predecessor-version":[{"id":219280,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/174344\/revisions\/219280"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/218120"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=174344"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=174344"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}