{"id":178057,"date":"2026-01-28T16:55:39","date_gmt":"2026-01-28T15:55:39","guid":{"rendered":"https:\/\/liora.io\/de\/?p=178057"},"modified":"2026-02-06T04:22:00","modified_gmt":"2026-02-06T03:22:00","slug":"xai-oder-explainable-artificial-intelligence-was-ist-das","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/xai-oder-explainable-artificial-intelligence-was-ist-das","title":{"rendered":"XAI oder eXplainable Artificial Intelligence: Was ist das?"},"content":{"rendered":"<p><strong>Eine der gro\u00dfen Herausforderungen des maschinellen Lernens ist es, Systeme zu produzieren, die ihre Entscheidungen und Handlungen gegen\u00fcber menschlichen Nutzern erkl\u00e4ren k\u00f6nnen. So ist die Erkl\u00e4rbarkeit von K\u00fcnstlichen Intelligenzen ( XAI ) zu einer der Herausforderungen des Machine Learning geworden und geh\u00f6rt mittlerweile zum Berufsbild von Data Scientists, die die Nutzer davon \u00fcberzeugen m\u00fcssen, dass die Argumentation ihrer Modelle akzeptabel ist.<\/strong><\/p>\n<h2 class=\"wp-block-heading\" id=\"h-was-ist-die-erklarbarkeit-eines-modells\">Was ist die Erkl\u00e4rbarkeit eines Modells?<\/h2>\nXAI oder &#8222;eXplainable Artificial Intelligence&#8220; bezeichnet eine Reihe von Prozessen und Methoden, mit denen jedes von einer k\u00fcnstlichen Intelligenz berechnete Ergebnis auf einfache und verst\u00e4ndliche Weise erkl\u00e4rt werden kann. Es ist ein Bereich des Machine Learning, der darauf abzielt, ein von einem Modell vorgegebenes Ergebnis so genau wie m\u00f6glich zu begr\u00fcnden.\n\nTats\u00e4chlich hilft diese KI jedem, der kein technischer Spezialist oder Data Scientist ist, zu verstehen, warum ein Algorithmus solche Ergebnisse geliefert hat.\n\nZum Beispiel, wenn du ein <a href=\"https:\/\/liora.io\/de\/feature-engineering-definition-und-bedeutung-in-machine-learning\">Machine-Learning-Modell (ML)<\/a> mit Finanzdaten trainiert hast, um einen Investor bei der Wahl eines Investitionssektors zu beraten. Mit erkl\u00e4rbarer KI bist du dann in der Lage zu erkl\u00e4ren, warum eine Option statt einer anderen ausgew\u00e4hlt wurde und warum die empfohlenen Anlagem\u00f6glichkeiten am besten zu seiner Situation passen.\n<h2 class=\"wp-block-heading\" id=\"h-warum-explainable-ai\">Warum Explainable AI ?<\/h2>\nErkl\u00e4rbare <strong>KI<\/strong> ist sowohl f\u00fcr Entwickler und Data Scientists als auch f\u00fcr Nutzer aus mehreren guten Gr\u00fcnden von entscheidender Bedeutung:\n<ul>\n \t<li>Entwicklern soll es erm\u00f6glicht werden, Modelle zu aktualisieren und zu verbessern sowie ihre Effektivit\u00e4t zu messen.<\/li>\n \t<li>Seit der Einf\u00fchrung der <a href=\"https:\/\/liora.io\/de\/dsgvo-definition-und-auswirkungen-auf-unternehmen\">DSGVO<\/a> ist es Pflicht, alle Ergebnisse (Punktzahlen, Segmentierungen usw.), die sich auf Einzelpersonen beziehen, erkl\u00e4ren zu k\u00f6nnen. Mit XAI ist dies nun m\u00f6glich.<\/li>\n \t<li>Konkretere Ergebnisse liefern, indem sie wertvolle Informationen \u00fcber die wichtigsten Kennzahlen eines Unternehmens liefern.\nDas &#8222;Warum&#8220; zu verstehen, wird eine bessere Nutzung der Ergebnisse erm\u00f6glichen, um seine Rede vorzubereiten und anzupassen. Bei einem Telefonanbieter muss ein Berater z. B. eine Person, die m\u00f6glicherweise k\u00fcndigt, weil sie ein billigeres Angebot sucht, anders ansprechen als einen Kunden, der umziehen will.<\/li>\n \t<li>Wenn du die Gedankeng\u00e4nge der <a href=\"https:\/\/liora.io\/de\/machine-learning-clustering\">Algorithmen<\/a> verstehst, werden die Endnutzer erkennen, dass sie auf logischen Prinzipien basieren.<\/li>\n<\/ul>\n<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2023\/04\/XAI.png\" title=\"\" alt=\"\" loading=\"lazy\"><figcaption><\/figcaption><\/figure>\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Explainable Artificial Intelligence lernen<\/a><\/div><\/div>\n\n<h2 class=\"wp-block-heading\" id=\"h-methoden-um-eine-xai-zu-implementieren\">Methoden, um eine XAI zu implementieren<\/h2>\nEs gibt verschiedene Methoden, um Transparenz und Verst\u00e4ndnis in K\u00fcnstliche Intelligenzen zu bringen. Die wichtigsten Ans\u00e4tze sind die folgenden.\n<h3 class=\"wp-block-heading\" id=\"h-layer-wise-relevance-propagation-lrp\">Layer-wise Relevance Propagation (LRP) :<\/h3>\nHierbei handelt es sich um eine Technologie, die es erm\u00f6glicht, die Besonderheiten der Eingabevektoren zu definieren.\n\nSie ist auf Modelle f\u00fcr<a href=\"https:\/\/liora.io\/de\/neuronale-netze-einfach-erklaert\"> neuronale Netze<\/a> anwendbar, bei denen die Eingaben Bilder, Videos oder Text sein k\u00f6nnen.\n<h3 class=\"wp-block-heading\" id=\"h-counterfactual-method\">Counterfactual Method :<\/h3>\nEine kontrafaktische Erkl\u00e4rung beschreibt eine kausale Situation in der Form: &#8222;Wenn X nicht eingetreten w\u00e4re, w\u00e4re Y nicht eingetreten&#8220;.\n\nDiese Technologie bezieht sich auf die Art und Weise, wie man Dateneingaben ver\u00e4ndert, nachdem man ein Ergebnis erzielt hat. Anschlie\u00dfend wird beobachtet, inwieweit das Ergebnis ver\u00e4ndert wurde.\n<h3 class=\"wp-block-heading\" id=\"h-local-interpretable-model-agnostic-explanations-lime\">Local Interpretable Model-Agnostic Explanations (LIME) :<\/h3>\n<strong>LIME<\/strong> ist eine Methode, die auf einem globalistischen Ansatz basiert und darauf abzielt, jeden mechanischen Klassifikator und die daraus resultierenden Prognosen zu erkl\u00e4ren. Es ist eine der sogenannten lokalen Methoden in dem Sinne, dass sie Erkl\u00e4rungen f\u00fcr die Wahl des Modells f\u00fcr jeden einzelnen Wert und nicht global f\u00fcr einen ganzen Datensatz liefert. Mit einer solchen Methode k\u00f6nnen auch Nicht-Spezialisten auf die Daten und Methoden zugreifen.\n<h3 class=\"wp-block-heading\" id=\"h-rationalisation\">Rationalisation :<\/h3>\nDies ist eine Methode, die speziell bei KI-basierten Robotern wie ChatGPT eingesetzt wird. In diesem Rahmen wird der Maschine Autonomie verliehen, die es ihr erm\u00f6glicht, ihre Handlungen zu erkl\u00e4ren.\n<h2 class=\"wp-block-heading\" id=\"h-fazit\">Fazit<\/h2>\nDer transparente Charakter der erkl\u00e4rbaren <strong>KI<\/strong> hat viele Vorteile f\u00fcr die Entscheidungsfindung. Tats\u00e4chlich hilft <strong>XAI<\/strong> dabei, die komplexen Ergebnisse zu interpretieren, die von Machine-Learning-Modellen produziert werden. Au\u00dferdem erm\u00f6glicht sie es Entwicklern, die Modelle zu aktualisieren und zu verbessern. Dar\u00fcber hinaus hat sie den Vorteil, dass die Daten gut nachvollziehbar sind.\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/weiterbildung-machine-learning-engineer\">Machine Learning Engineer Weiterbildung<\/a><\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Eine der gro\u00dfen Herausforderungen des maschinellen Lernens ist es, Systeme zu produzieren, die ihre Entscheidungen und Handlungen gegen\u00fcber menschlichen Nutzern erkl\u00e4ren k\u00f6nnen. So ist die Erkl\u00e4rbarkeit von K\u00fcnstlichen Intelligenzen ( XAI ) zu einer der Herausforderungen des Machine Learning geworden und geh\u00f6rt mittlerweile zum Berufsbild von Data Scientists, die die Nutzer davon \u00fcberzeugen m\u00fcssen, dass die Argumentation ihrer Modelle akzeptabel ist.<\/p>\n","protected":false},"author":78,"featured_media":178059,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-178057","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/178057","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/78"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=178057"}],"version-history":[{"count":3,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/178057\/revisions"}],"predecessor-version":[{"id":216339,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/178057\/revisions\/216339"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/178059"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=178057"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=178057"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}