{"id":180945,"date":"2023-07-20T14:32:23","date_gmt":"2023-07-20T13:32:23","guid":{"rendered":"https:\/\/liora.io\/de\/?p=180945"},"modified":"2026-02-06T06:32:36","modified_gmt":"2026-02-06T05:32:36","slug":"der-lime-ansatz-kann-man-den-vorhersagen-einer-ki-vertrauen","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/der-lime-ansatz-kann-man-den-vorhersagen-einer-ki-vertrauen","title":{"rendered":"Der LIME-Ansatz: Kann man den Vorhersagen einer KI vertrauen ?"},"content":{"rendered":"<p>In einem fr\u00fcheren Artikel haben wir die Grenzen der k\u00fcnstlichen Intelligenz diskutiert und die Hollywood-Vision eines Roboters, der den Menschen \u00fcberholt und ihm sein Verhalten vorschreibt, relativiert.<\/p>\n<p>Mit der weit verbreiteten Nutzung von Vorhersagemodellen in kritischen Bereichen wie der medizinischen Diagnostik stellt sich jedoch die Frage, wie viel Vertrauen ein Nutzer in eine KI setzen kann. Wie kann man sicherstellen, dass solche Algorithmen nicht zu viele Fehler verursachen, wenn<a href=\"https:\/\/liora.io\/de\/halluzination-ki-wie-man-sie-intelligenzen-stoppen-kann\"> k\u00fcnstliche Intelligenz<\/a> unsere Entscheidungen in immer mehr Bereichen lenken kann?<\/p>\n<p>Was, wenn die L\u00f6sung im Problem liegt? Wenn es eine KI g\u00e4be, die in der Lage w\u00e4re, die algorithmischen Vorhersagen zu rechtfertigen und somit den <a href=\"https:\/\/liora.io\/de\/arima\">Vorhersagemodellen eine gewisse Legitimit\u00e4t und Zuverl\u00e4ssigkeit zu verleihen?<\/a><\/p>\n<h2>Sollte man KIs misstrauen?<\/h2>\n<p>Um diese Frage zu beantworten, werden wir uns auf ein Beispiel st\u00fctzen, in dem zwei Klassifikatoren vorhergesagt werden<\/p>\n<figure>\n\t\t\t\t\t\t\t\t\t\t\t<a href=\"https:\/\/arxiv.org\/pdf\/1602.04938.pdf\"><br \/>\n<img decoding=\"async\" width=\"800\" height=\"421\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/Capture-decran-2020-06-08-a-18.09.49-1024x539.png\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/Capture-decran-2020-06-08-a-18.09.49-1024x539.png 1024w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/Capture-decran-2020-06-08-a-18.09.49-300x158.png 300w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/Capture-decran-2020-06-08-a-18.09.49-768x404.png 768w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/Capture-decran-2020-06-08-a-18.09.49.png 1102w\" sizes=\"(max-width: 800px) 100vw, 800px\">\t\t\t\t\t\t\t\t<\/a><figcaption>Source: \u201cWhy Should I Trust You?\u201d: Explaining the Predictions of Any Classifier, Tulio Ribeiro, S. Singh, C. Guestrin, ao\u00fbt 2016.<\/figcaption><\/figure>\n<p>Dieses Beispiel zeigt die Erkl\u00e4rungen der Vorhersagen von zwei verschiedenen Klassifikatoren, die versuchen zu bestimmen, ob ein Dokument &#8211; der Input &#8211; \u00fcber &#8222;Christentum&#8220; oder &#8222;Atheismus&#8220; handelt.<\/p>\n<p>In diesen Erkl\u00e4rungen sind zwei wichtige Elemente hervorzuheben:<\/p>\n<ul>\n<li>Das Balkendiagramm stellt die Reihenfolge der Wichtigkeit der W\u00f6rter dar, die zu einer Vorhersage f\u00fchren.<\/li>\n<li>Die Farbe zeigt an, zu welcher Klasse das Wort beitr\u00e4gt: gr\u00fcn f\u00fcr &#8222;Christentum&#8220; und magenta f\u00fcr &#8222;Atheismus&#8220;.<\/li>\n<\/ul>\n<p>Dieses Experiment zeigt, dass in diesem Fall die Vorhersagen aus ziemlich willk\u00fcrlichen Gr\u00fcnden gemacht werden: F\u00fcr Algorithmus 2 haben die W\u00f6rter &#8222;Post&#8220;, &#8222;Host&#8220; und &#8222;Re&#8220;, anders als im Balkendiagramm dargestellt, keine Verbindung zum Atheismus (und \u00fcbrigens auch nicht zum Christentum), w\u00e4hrend f\u00fcr Algorithmus 1 die Begriffe &#8222;GOD&#8220; oder &#8222;Koresh&#8220; nicht zum Atheismus, sondern eher zum Christentum f\u00fchren sollten.<\/p>\n<p>Wie dieses Beispiel zeigt, w\u00e4re es daher ein Fehler, einer KI blind zu vertrauen, den man nicht begehen sollte. Wie k\u00f6nnen wir wissen, ob eine KI eine Entscheidung aus einem vern\u00fcnftigen Grund trifft?<\/p>\n<p>Wir stellen dir jetzt<strong> LIME<\/strong> vor, eine <a href=\"https:\/\/liora.io\/de\/top-10-der-python-bibliotheken-fur-data-scientists\">Python-Bibliothek<\/a>, mit der du jedes komplexe und daher schwer zu interpretierende Modell in ein einfaches lineares Modell umwandeln kannst, dessen offensichtlicher Vorteil darin besteht, dass es nun einfacher ist, die Vorhersage zu erkl\u00e4ren.<\/p>\n<h2>Der LIME-Ansatz: Eine effektive L\u00f6sung?<\/h2>\n<p><strong>LIME (Locally Interpretable Model-agnostic Explanation)<\/strong> ist eine KI, die es erm\u00f6glicht, die Logik hinter algorithmischen Vorhersagen zu verstehen, um den Menschen bei seiner Entscheidung zu unterst\u00fctzen, ob er diesen Vorhersagen Glauben schenken soll oder nicht.<\/p>\n<p>W\u00e4hrend einige Modelle aufgrund ihrer Einfachheit (lineare Regression, <a href=\"https:\/\/t2informatik.de\/wissen-kompakt\/entscheidungsbaum\/\">Entscheidungsb\u00e4ume<\/a>) ihre Vorhersagen erkl\u00e4ren k\u00f6nnen, haben andere Machine-Learning-Algorithmen, wie z. B. solche, die auf der Architektur neuronaler Netze basieren, in der Regel eine zu komplexe Vorhersagefunktion und bleiben daher f\u00fcr den Menschen unverst\u00e4ndlich. Man spricht von schwer interpretierbaren Modellen.<\/p>\n<p>Das Ziel von LIME ist es, die Vorhersagen in ein interpretierbares lineares mathematisches Modell umzuwandeln. Anders ausgedr\u00fcckt: <strong>Das Ziel von LIME<\/strong> ist es, die beste vereinfachte Version eines komplexen Modells um eine einzelne untersuchte Beobachtung herum zu finden. Die folgende Abbildung zeigt die neue lineare Klassifikation, die durch die Verwendung von LIME erstellt wurde:<\/p>\n<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"800\" height=\"492\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/Capture-decran-2020-06-08-a-18.11.11.png\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/Capture-decran-2020-06-08-a-18.11.11.png 1002w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/Capture-decran-2020-06-08-a-18.11.11-300x184.png 300w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/Capture-decran-2020-06-08-a-18.11.11-768x472.png 768w\" sizes=\"(max-width: 800px) 100vw, 800px\"><figcaption>Quelle: &#8222;Warum sollte ich dir vertrauen?&#8220;: Die Vorhersagen eines Klassifikators erkl\u00e4ren<\/figcaption><\/figure>\n<p>Anf\u00e4nglich macht das Modell eine komplexe bin\u00e4re Vorhersage (rosa oder blauer Bereich) :<\/p>\n<ul>\n<li>Das fettgedruckte rote Kreuz entspricht der Vorhersage.<\/li>\n<li>Die Achsen sind die erkl\u00e4renden Variablen (Features).<\/li>\n<li>Die blauen Kreise und roten Kreuze sind die Vorhersagen, die nach St\u00f6rungen der Features erhalten wurden.<\/li>\n<li>F\u00fcr jeden Punkt, der rechts von der urspr\u00fcnglichen Vorhersage liegt, wurde das Feature, das der x-Achse entspricht, ge\u00e4ndert und das Feature, das der y-Achse entspricht, unver\u00e4ndert gelassen.<\/li>\n<li>Je n\u00e4her ein Punkt an der urspr\u00fcnglichen Vorhersage liegt (fettes rotes Kreuz), desto gr\u00f6\u00dfer ist er.<\/li>\n<\/ul>\n<p>Die obige Grafik verdeutlicht die <strong>Funktion von LIME,<\/strong> uns zu einem einfachen linearen Modell zur\u00fcckzuf\u00fchren, dessen Grenze durch die gestrichelte Gerade dargestellt wird: Im Gegensatz zum urspr\u00fcnglichen komplexen bin\u00e4ren Modell (rosa oder blaues Gebiet) sind die &#8222;neuen&#8220; roten und blauen Gebiete nun die links bzw. rechts von der gestrichelten Linie liegenden.<\/p>\n<p>Dar\u00fcber hinaus zeigt die von LIME ermittelte gestrichelt dargestellte Gerade auch, dass die Variable auf der <strong>Abszissenachse wichtiger ist als die auf der Ordinatenachse:<\/strong><\/p>\n<ul>\n<li>Eine Verschiebung auf der Ordinatenachse hat wenig Einfluss auf die Vorhersage (der Punkt bleibt im roten Bereich).<\/li>\n<li>Eine Verschiebung auf der Abszissenachse ver\u00e4ndert die Vorhersage (der Punkt wechselt von der roten in die blaue Region).<\/li>\n<\/ul>\n<h2>Beispiel f\u00fcr die praktische Anwendung von LIME :<\/h2>\n<p><img decoding=\"async\" width=\"800\" height=\"419\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/Capture-decran-2020-06-08-a-18.11.20.png\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/Capture-decran-2020-06-08-a-18.11.20.png 894w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/Capture-decran-2020-06-08-a-18.11.20-300x157.png 300w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/Capture-decran-2020-06-08-a-18.11.20-768x402.png 768w\" sizes=\"(max-width: 800px) 100vw, 800px\"><\/p>\n<p>In diesem Beispiel begr\u00fcndet <strong>LIME durch die Umwandlung eines beliebigen komplexen Modells<\/strong> in ein interpretierbares lineares Modell die Vorhersage eines <strong>Bilderkennungsalgorithmus, indem es genau feststellt,<\/strong> welcher Teil des eingegebenen Bildes die Anwesenheit eines Frosches erkannt hat.<\/p>\n<p>Anhand dieses Beispiels wird deutlich, dass LIME mit dem Ziel entwickelt wurde, dass Nutzer den Vorhersagen von KIs vertrauen k\u00f6nnen. Man kann also davon ausgehen, dass KIs in naher Zukunft st\u00e4rker unter dem Zwang stehen werden, den Nutzern gegen\u00fcber v\u00f6llig transparent zu sein, vor allem seit der Einf\u00fchrung der GDPR (General Data Protection Regulation) im Mai 2018. Es wird dann notwendig sein, neue und immer leistungsf\u00e4higere Algorithmen zu entwickeln, die es erm\u00f6glichen, Entscheidungen und Vorhersagen in komplexen und daher schwer interpretierbaren Modellen zu rechtfertigen.<\/p>\n<p>Hat dir dieser Artikel gefallen? M\u00f6chtest du dein Wissen \u00fcber KI erweitern?<\/p>\n<p><a href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\"><br \/>\nEntdecke unsere Weiterbildungen<br \/>\n<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>In einem fr\u00fcheren Artikel haben wir die Grenzen der k\u00fcnstlichen Intelligenz diskutiert und die Hollywood-Vision eines Roboters, der den Menschen \u00fcberholt und ihm sein Verhalten vorschreibt, relativiert. Mit der weit verbreiteten Nutzung von Vorhersagemodellen in kritischen Bereichen wie der medizinischen Diagnostik stellt sich jedoch die Frage, wie viel Vertrauen ein Nutzer in eine KI setzen [&hellip;]<\/p>\n","protected":false},"author":76,"featured_media":180949,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-180945","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/180945","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/76"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=180945"}],"version-history":[{"count":1,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/180945\/revisions"}],"predecessor-version":[{"id":217363,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/180945\/revisions\/217363"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/180949"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=180945"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=180945"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}