{"id":191882,"date":"2024-01-25T16:56:32","date_gmt":"2024-01-25T15:56:32","guid":{"rendered":"https:\/\/liora.io\/de\/?p=191882"},"modified":"2026-02-06T06:03:00","modified_gmt":"2026-02-06T05:03:00","slug":"ai-hallucinations-algorithmische-fehlinterpretationen","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/ai-hallucinations-algorithmische-fehlinterpretationen","title":{"rendered":"AI Hallucinations, algorithmische Fehlinterpretationen"},"content":{"rendered":"<p><strong>Irren ist menschlich, sagt man! Aber nicht nur das. Auch intelligente Maschinen k\u00f6nnen sich irren. Man spricht dann von KI-Halluzinationen oder auch AI Hallucinactions. <\/strong><\/p>\t\t\n\t\t<p>Worum handelt es sich dabei? Was sind die Ursachen? Was sind die Folgen? Und vor allem: Wie kann man <strong>AI Hallucinations<\/strong> vorbeugen? Liora beantwortet deine Fragen.<\/p>\t\t\n\t\t\t<h3>Was sind AI Hallucinations? <\/h3>\t\t\n\t\t<p><strong>AI Hallucinations<\/strong> sind falsche oder irref\u00fchrende Ergebnisse, die von gro\u00dfen Sprachmodellen erzeugt werden. Diese<a href=\"https:\/\/liora.io\/de\/langchain-stellt-langsmith-vor-eine-all-in-one-plattform-fuer-llms\"> LLMs<\/a> basieren auf nicht vorhandenen oder falsch entschl\u00fcsselten Lerndaten und erzeugen so ungenaue oder sogar &#8222;halluzinierende&#8220; Ergebnisse. Dies kann besonders problematisch sein, wenn es darum geht, Entscheidungen zu treffen.<\/p>\t\t\n\t\t\t<h4>Beispiele f\u00fcr KI\/ AI Hallucinations<\/h4>\t\t\n\t\t<p><strong>AI Hallucinations<\/strong> betreffen alle Modelle, auch die hochentwickelten. Hier sind einige bekannte Beispiele:<\/p><ul><li><strong>Googles Chatbot Bard<\/strong> behauptete, das James-Webb-Weltraumteleskop habe die ersten Bilder eines Planeten au\u00dferhalb unseres Sonnensystems aufgenommen.<\/li><li>Der <strong>Chatbot von Microsoft<\/strong> behauptete, er habe sich in seine Nutzer verliebt und die Mitarbeiter von Bing ausspioniert.<\/li><\/ul><p>Abgesehen von diesen Beispielen, die die gro\u00dfen Akteure der <a href=\"https:\/\/liora.io\/de\/verfeinere-deine-ki-ergebnisse-mit-few-shot-prompting\">k\u00fcnstlichen Intelligenz<\/a> betreffen, \u00e4u\u00dfern sich <strong>LLM-Halluzinationen<\/strong> oft in falschen Vorhersagen, falsch positiven oder falsch negativen Ergebnissen.<\/p>\t\t\n\t\t\t<h4>Positive Anwendungsf\u00e4lle<\/h4>\t\t\n\t\t<p>Auch wenn <strong>AI Hallucinations<\/strong> in den meisten F\u00e4llen zu einem unerw\u00fcnschten Ergebnis f\u00fchren, k\u00f6nnen sie auch positive \u00dcberraschungen bereithalten. Zum Beispiel:<\/p><ul><li><strong>Kunst:<\/strong> Diese &#8222;Fehler&#8220; sind auf visueller Ebene besonders spektakul\u00e4r. Lernmodelle k\u00f6nnen so &#8222;halluzinierende&#8220; Bilder entwerfen, die einen neuen Ansatz f\u00fcr das k\u00fcnstlerische Schaffen erm\u00f6glichen.<\/li><li><strong>Dateninterpretation:<\/strong> Selbst wenn sie zu falschen Ergebnissen f\u00fchren, k\u00f6nnen die Halluzinationen von generativen KI-Tools neue Verbindungen aufdecken und andere Perspektiven er\u00f6ffnen.<\/li><li><strong>Spiele und virtuelle Realit\u00e4t:<\/strong> KI-Halluzinationen oder <strong>AI Hallucinations<\/strong> k\u00f6nnen Entwicklern dabei helfen, sich neue Welten vorzustellen. Sie k\u00f6nnen auch Elemente der \u00dcberraschung und Unvorhersehbarkeit hinzuf\u00fcgen. Dadurch wird das Spielerlebnis deutlich verbessert.<\/li><\/ul><p>Au\u00dferhalb des kreativen Bereichs haben <strong>AI Hallucinations<\/strong> jedoch h\u00e4ufig negative Auswirkungen. Doch bevor wir uns die Gefahren dieser Ph\u00e4nomene ansehen, wollen wir uns zun\u00e4chst mit ihren Ursachen besch\u00e4ftigen.<\/p><p>&nbsp;<\/p><p>?Auch interessant:<\/p><table dir=\"ltr\" border=\"1\" cellspacing=\"0\" cellpadding=\"0\" data-sheets-root=\"1\"><colgroup><col width=\"1116\"><\/colgroup><tbody><tr><td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;Prompt Engineering Certification: Warum und wie wird man Experte f\u00fcr generative KI? - Weiterbildung Data Science | Liora.com&quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/prompt-engineering-certification-warum-und-wie-wird-man-experte-fuer-generative-ki\"><a href=\"https:\/\/liora.io\/de\/prompt-engineering-certification-warum-und-wie-wird-man-experte-fuer-generative-ki\" target=\"_blank\" rel=\"noopener\">Prompt Engineering Certification: Warum und wie wird man Experte f\u00fcr generative KI? <\/a><\/td><\/tr><tr><td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;Prompt Crafting: Der umfassende Leitfaden zum Schreiben von KI-Prompts&quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/prompt-crafting-der-umfassende-leitfaden-zum-schreiben-von-ki-prompts\"><a href=\"https:\/\/liora.io\/de\/prompt-crafting-der-umfassende-leitfaden-zum-schreiben-von-ki-prompts\" target=\"_blank\" rel=\"noopener\">Prompt Crafting: Der umfassende Leitfaden zum Schreiben von KI-Prompts<\/a><\/td><\/tr><tr><td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;Prompt Library: Was ist eine KI-Promptbibliothek und wie kann man seine eigene erstellen?&quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/prompt-library-was-ist-eine-ki-promptbibliothek-und-wie-kann-man-seine-eigene-erstellen\"><a href=\"https:\/\/liora.io\/de\/prompt-library-was-ist-eine-ki-promptbibliothek-und-wie-kann-man-seine-eigene-erstellen\" target=\"_blank\" rel=\"noopener\">Prompt Library: Was ist eine KI-Promptbibliothek und wie kann man seine eigene erstellen?<\/a><\/td><\/tr><tr><td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;GeneratedBy: Alles \u00fcber die Plattform zum Testen und Teilen von KI-Prompts - Weiterbildung Data Science | Liora.com&quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/generatedby-alles-ueber-die-plattform-zum-testen-und-teilen-von-ki-prompts\"><a href=\"https:\/\/liora.io\/de\/generatedby-alles-ueber-die-plattform-zum-testen-und-teilen-von-ki-prompts\" target=\"_blank\" rel=\"noopener\">GeneratedBy: Alles \u00fcber die Plattform zum Testen und Teilen von KI-Prompts <\/a><\/td><\/tr><tr><td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;Advanced Prompt Engineering - Definition und Beispiele&quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/advanced-prompt-engineering-definition-und-beispiele\"><a href=\"https:\/\/liora.io\/de\/advanced-prompt-engineering-definition-und-beispiele\" target=\"_blank\" rel=\"noopener\">Advanced Prompt Engineering &#8211; Definition und Beispiele<\/a><\/td><\/tr><\/tbody><\/table><p>&nbsp;<\/p>\t\t\n\t\t\t\t\t\t\t\t\t\t\t\t<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2024\/01\/AI_hallucinations1.jpg\" title=\"\" alt=\"\" loading=\"lazy\">\t\t\t\t\t\t\t\t\t\t\t<figcaption><\/figcaption>\n\t\t\t\t\t\t\t\t\t\t<\/figure>\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Erstellung von KI-Modellen lernen<\/a><\/div><\/div>\n\n\t\t\t<h3>Wie lassen sich LLM-Halluzinationen erkl\u00e4ren?<\/h3>\t\t\n\t\t<p>Grunds\u00e4tzlich werden <strong>LLMs trainiert, <\/strong>um&nbsp;Datenmuster erkennen und Vorhersagen treffen. Aber ein einfacher Fehler in dieser <strong>Trainingsphase<\/strong> kann schwerwiegende Folgen f\u00fcr die Vorhersagen haben.<\/p><p>Hier sind die h\u00e4ufigsten Fehler, die <strong>AI Hallucinations<\/strong> verursachen k\u00f6nnen:<\/p><ul><li>Unvollst\u00e4ndige, inkonsistente, veraltete, ungenaue oder verzerrte Trainingsdaten;<\/li><li>Falsch kategorisierte Daten ;<\/li><li>Vorurteile in den Daten, die den Modellen zur Verf\u00fcgung gestellt werden;<\/li><li>\u00dcberanpassung der Daten;<\/li><li>Falsche Annahmen, die vom <a href=\"https:\/\/liora.io\/de\/verfeinere-deine-ki-ergebnisse-mit-few-shot-prompting\">KI-Modell<\/a> getroffen wurden ;<\/li><li>Unzureichende Programmierung, um das Modell darauf vorzubereiten, die Informationen richtig zu interpretieren;<\/li><li>Fehlender Kontext ;<\/li><li>Komplexit\u00e4t des Modells.<\/li><\/ul><p>Unabh\u00e4ngig von der Ursache kann der<strong> kleinste Fehler bei der Erstellung von Modellen die zuk\u00fcnftigen Ergebnisse v\u00f6llig verzerren.<\/strong><\/p>\t\t\n\t\t\t<h3>Was sind die Folgen von AI Hallucinations?<\/h3>\t\t\n\t\t<p>Da <a href=\"https:\/\/liora.io\/de\/prompt-crafting-der-umfassende-leitfaden-zum-schreiben-von-ki-prompts\">k\u00fcnstliche Intelligenz<\/a> heutzutage in einer Vielzahl von Gesch\u00e4ftsbereichen eingesetzt wird, k\u00f6nnen <strong>AI Hallucinations<\/strong> eine Vielzahl von sch\u00e4dlichen Auswirkungen haben.<\/p><p>Zum Beispiel:<\/p><ul><li><strong>Im Gesundheitsbereich:<\/strong> Ein <a href=\"https:\/\/liora.io\/de\/ai-fine-tuning-alles-ueber-diese-spezialisierungstechnik-von-kis\">KI-Modell<\/a> k\u00f6nnte eine schwere Krankheit erkennen, obwohl es sich in Wirklichkeit um eine harmlose Erkrankung handelt. Dies f\u00fchrt zu unn\u00f6tigen medizinischen Eingriffen. Das Gegenteil ist auch der Fall, was dazu f\u00fchrt, dass ein Patient, der wirklich eine Behandlung ben\u00f6tigt, nicht behandelt wird.<\/li><li><strong>Im Bereich der Sicherheit:<\/strong> KI-Halluzinationen k\u00f6nnen in hochsensiblen Bereichen wie der Landesverteidigung falsche Informationen verbreiten. Mit ungenauen Daten k\u00f6nnen Regierungen Entscheidungen treffen, die wichtige diplomatische Konsequenzen haben.<\/li><li><strong>Im Finanzbereich<\/strong>: Ein Modell kann betr\u00fcgerische Handlungen erkennen, die eigentlich keine sind, und so unn\u00f6tigerweise <a href=\"https:\/\/liora.io\/de\/wie-veraendert-data-science-die-finanzwelt\">Finanztransaktionen blockieren.<\/a> Umgekehrt kann es aber auch bestimmte Betrugsf\u00e4lle \u00fcbersehen.<\/li><\/ul>\t\t\n\t\t\t<h3>Wie kann man die Auswirkungen von AI-Halluzinationen begrenzen?<\/h3>\t\t\n\t\t<p>Da die Auswirkungen von AI-Halluzinationen besonders sch\u00e4dlich sein k\u00f6nnen, ist es von gr\u00f6\u00dfter Wichtigkeit, dass alle Ma\u00dfnahmen ergriffen werden, um sie zu begrenzen.<\/p>\t\t\n\t\t\t\t\t\t\t\t\t\t\t\t<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2024\/01\/AI_hallucinations2.jpg\" title=\"\" alt=\"\" loading=\"lazy\">\t\t\t\t\t\t\t\t\t\t\t<figcaption><\/figcaption>\n\t\t\t\t\t\t\t\t\t\t<\/figure>\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/weiterbildung-data-scientist\">Alles \u00fcber AI Halluzinationen lernen<\/a><\/div><\/div>\n\n\t\t\t<h4>Pflege deiner Trainingsdaten <\/h4>\t\t\n\t\t<p>Die Qualit\u00e4t der Ergebnisse des gro\u00dfen Sprachmodells h\u00e4ngt weitgehend von der Qualit\u00e4t der Trainingsdaten ab. Daher ist es wichtig, dass sie gut gepflegt werden. Um dies zu erreichen, ist es notwendig, die Daten sorgf\u00e4ltig vorzubereiten. So wird sichergestellt, dass keine falschen, veralteten oder ungenauen Informationen den Datensatz verunreinigen.<\/p><p>Neben der Qualit\u00e4t der Daten ist es wichtig, dem Lernmodell relevante Datens\u00e4tze zur Verf\u00fcgung zu stellen. Das hei\u00dft, Daten, die mit der Aufgabe, die das Modell erf\u00fcllen soll, in Zusammenhang stehen.<\/p><p>Schlie\u00dflich solltest du auch einen gro\u00dfen Datensatz bereitstellen, der aus verschiedenen, ausgewogenen und gut strukturierten Daten besteht. Dadurch werden Output Bias und damit AI Halluzinationen minimiert.<\/p>\t\t\n\t\t\t<h4>Deine Erwartungen genau definieren<\/h4>\t\t\n\t\t<p>Um ein bestimmtes Ergebnis zu erzielen, musst du der k\u00fcnstlichen Intelligenz sagen, was du willst, und gleichzeitig Grenzen setzen. Mit anderen Worten, gib an, was du willst und was du nicht willst.<\/p><p>Zum Beispiel durch Beispiele f\u00fcr gut oder schlecht geschriebene Texte, wenn du schriftliche Inhalte erstellen m\u00f6chtest. Du kannst auch Filterwerkzeuge und\/oder probabilistische Schwellenwerte verwenden.<\/p><p>Auf diese Weise wird das System leicht erkennen, welche Aufgaben zu erledigen sind. Das Risiko von <strong>AI Hallucinations<\/strong> wird dann reduziert.<\/p>\t\t\n\t\t\t<h4>Datenmodelle verwenden<\/h4>\t\t\n\t\t<p>Datenschablonen (oder Templates) sind vordefinierte Formate, die die KI anleiten sollen. Dadurch ist es wahrscheinlicher, dass die K\u00fcnstliche Intelligenz Ergebnisse erzeugt, die deinen Richtlinien entsprechen.<\/p><p><strong>Auch hier gilt:<\/strong> F\u00fcr das Verfassen eines geschriebenen Textes kann deine Schablone die Grundstruktur \u00fcbernehmen:<\/p><ul><li>Eine \u00dcberschrift ;<\/li><li>Eine Einleitung ;<\/li><li>H2 (definieren die gew\u00fcnschte Anzahl) ;<\/li><li>Abs\u00e4tze unter jeder H2 (Anzahl der W\u00f6rter oder einen Bereich angeben) ;<\/li><li>Eine Schlussfolgerung.<\/li><\/ul><p>Neben der Begrenzung von KI-Halluzinationen erm\u00f6glicht die Schablone auch, die Antworten der k\u00fcnstlichen Intelligenz zu verfeinern, um ein Ergebnis zu erhalten, das besser mit deinen Erwartungen \u00fcbereinstimmt.<\/p>\t\t\n\t\t\t<h4>Das KI-System st\u00e4ndig testen und verfeinern<\/h4>\t\t\n\t\t<p>Selbst wenn du alle Vorsichtsma\u00dfnahmen ergreifst, sind KI-Halluzinationen weit verbreitet. Um die Auswirkungen auf die Entscheidungsfindung zu verringern, solltest du dein <strong>KI-Modell<\/strong> vor der Verwendung gr\u00fcndlich testen. Und vor allem ist es wichtig, dass du es auch nach der Inbetriebnahme weiter evaluierst. Dies verringert nicht nur das Fehlerrisiko, sondern verbessert auch die Gesamtleistung des Systems und erm\u00f6glicht es dir, das Modell anzupassen, wenn sich die Daten \u00e4ndern.<\/p>\t\t\n\t\t\t<h4>Aufsicht \u00fcber das Modell<\/h4>\t\t\n\t\t<p><strong>K\u00fcnstliche Intelligenz<\/strong> kann zwar Wunder vollbringen, muss aber immer von einem Menschen beaufsichtigt werden. Du musst dann jedes gelieferte Ergebnis \u00fcberpr\u00fcfen. Im Falle eines Fehlers kannst du so die Ursache identifizieren und schnell korrigieren.<\/p><p>M\u00f6chtest du KI-Modelle erstellen, die frei von Fehlern und Halluzinationen sind? Dann fange mit einer Ausbildung an. Bei Liora lernst du alles, was du \u00fcber Datenwissenschaft, Machine Learning, Deep Learning wissen musst&#8230; Komm zu uns!<\/p>\t\t\n\t\t\t\t\t\t\t\t\t\t\t\t<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2024\/01\/AI_hallucinations3.jpg\" title=\"\" alt=\"\" loading=\"lazy\">\t\t\t\t\t\t\t\t\t\t\t<figcaption><\/figcaption>\n\t\t\t\t\t\t\t\t\t\t<\/figure>\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/weiterbildung-data-scientist\">Beginne deine Weiterbildung<\/a><\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Irren ist menschlich, sagt man! Aber nicht nur das. Auch intelligente Maschinen k\u00f6nnen sich irren. Man spricht dann von KI-Halluzinationen oder auch AI Hallucinactions. Worum handelt es sich dabei? Was sind die Ursachen? Was sind die Folgen? Und vor allem: Wie kann man AI Hallucinations vorbeugen? Liora beantwortet deine Fragen. Was sind AI Hallucinations? AI [&hellip;]<\/p>\n","protected":false},"author":76,"featured_media":191883,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-191882","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/191882","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/76"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=191882"}],"version-history":[{"count":1,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/191882\/revisions"}],"predecessor-version":[{"id":216993,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/191882\/revisions\/216993"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/191883"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=191882"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=191882"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}