{"id":179313,"date":"2026-01-28T12:48:45","date_gmt":"2026-01-28T11:48:45","guid":{"rendered":"https:\/\/liora.io\/de\/?p=179313"},"modified":"2026-02-20T10:55:29","modified_gmt":"2026-02-20T09:55:29","slug":"adversarial-attack-definition-und-schutz-vor-dieser-bedrohung","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/adversarial-attack-definition-und-schutz-vor-dieser-bedrohung","title":{"rendered":"Adversarial Attack: Definition und Schutz vor dieser Bedrohung"},"content":{"rendered":"\n<p><strong>Bei einem Adversarial Attack geht es darum, ein Machine-Learning-Modell mithilfe von Daten zu t\u00e4uschen oder zu entf\u00fchren. Hier erf\u00e4hrst du alles, was du \u00fcber diese Gei\u00dfel wissen musst, die die K\u00fcnstliche Intelligenz bedroht.<\/strong><\/p>\n\n\n\n<p>Der Begriff &#8222;<strong>adversarial attack<\/strong>&#8220; bezieht sich auf eine Technik, die als &#8222;<strong>adversarial Machine Learning<\/strong>&#8220; bezeichnet wird. Bei dieser Technik wird ein <strong>Machine-Learning-Modell<\/strong> mit <strong>Lerndaten<\/strong> get\u00e4uscht, um es zu ver\u00e4ndern, zu korrumpieren oder zu missbrauchen. Es handelt sich um eine wachsende <strong>Bedrohung<\/strong> f\u00fcr die <strong>Forschungswelt<\/strong> der <strong>K\u00fcnstlichen Intelligenz<\/strong>. In einer Zeit, in der <strong>KI<\/strong> immer h\u00e4ufiger eingesetzt wird, ist diese <strong>Gefahr<\/strong> nicht auf die leichte Schulter zu nehmen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-was-ist-der-zweck-einer-adversarial-attack\">Was ist der Zweck einer Adversarial Attack?<\/h2>\n\n\n\n<p>Eine <a href=\"https:\/\/liora.io\/de\/adversarial-examples\">Adversarial Attack zielt oft darauf ab, ein Machine-Learning-Modell<\/a> zum Scheitern zu bringen. Indem ein Modell auf ungenaue oder absichtlich verf\u00e4lschte Daten trainiert wird, kann seine zuk\u00fcnftige Leistung negativ beeinflusst werden. Ebenso kann ein bereits trainiertes Modell durch Daten korrumpiert werden. Selbst <strong>Systeme<\/strong>, die bereits auf dem Markt sind, k\u00f6nnen f\u00fcr solche <strong>Angriffe <\/strong>anf\u00e4llig sein.<\/p>\n\n\n\n<p>Ein paar Sticker auf dem Boden k\u00f6nnen z. B. ein <strong>selbstfahrendes Auto<\/strong> dazu bringen, die falsche Spur zu nehmen und in die entgegengesetzte Richtung zu fahren. Ebenso k\u00f6nnen unmerkliche Ver\u00e4nderungen ein<a href=\"https:\/\/liora.io\/de\/clean-das-revolutionaere-neue-data-tool-fuer-die-medizin\"> medizinisches Analysesystem t\u00e4uschen<\/a> und es dazu bringen, einen gutartigen Tumor als b\u00f6sartig zu klassifizieren. Ein <strong>Computer-Vision-System<\/strong> kann ein Stoppschild mit einem Schild f\u00fcr eine Geschwindigkeitsbegrenzung verwechseln, wenn nur ein St\u00fcck Klebeband daran klebt. K\u00fcnstliche Intelligenz ist also derzeit sehr leicht zu t\u00e4uschen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-die-verschiedenen-arten-von-adversarial-attacks\">Die verschiedenen Arten von Adversarial Attacks<\/h2>\n\n\n\n<p>Es gibt drei Haupttypen von <strong>adversarialen Angriffen<\/strong>. Die erste Art ist ein Angriff, der darauf abzielt, einen <strong>Klassifizierer<\/strong> zu beeinflussen, indem das <strong>Modell<\/strong> gest\u00f6rt wird, um seine <strong>Vorhersagen<\/strong> zu ver\u00e4ndern. Der zweite Typ besteht darin, die <strong>Sicherheit<\/strong> des <strong>Modells<\/strong> zu verletzen, um b\u00f6sartige <strong>Daten<\/strong> in das <strong>Modell<\/strong> einzuschleusen, die als legitim eingestuft werden. Ein <strong>gezielter Angriff<\/strong> schlie\u00dflich besteht darin, ein bestimmtes Eindringen oder eine bestimmte <strong>St\u00f6rung<\/strong> durchzuf\u00fchren oder eine allgemeine <strong>Unordnung<\/strong> zu erzeugen. Diese verschiedenen Kategorien k\u00f6nnen weiter unterteilt werden, je nachdem, ob sie als &#8222;<strong>Blackbox<\/strong>&#8220; oder &#8222;<strong>Whitebox<\/strong>&#8220; funktionieren. Bei einem <strong>White-Box-Angriff<\/strong> hat der <strong>Angreifer<\/strong> Zugriff auf die <strong>Parameter<\/strong> des <strong>Modells<\/strong>. Bei einem <strong>Black-Box-Angriff<\/strong> ist dies nicht der Fall.<\/p>\n\n\n\n<p><strong>Ausweichangriffe<\/strong> sind die h\u00e4ufigsten <strong>Angriffe<\/strong>. Sie bestehen darin, <strong>Daten<\/strong> zu ver\u00e4ndern, um <strong>Erkennungssysteme<\/strong> zu umgehen oder um als legitim eingestuft zu werden. Bei diesen <strong>Angriffen<\/strong> werden die <strong>Daten<\/strong>, die zum Trainieren des <strong>Modells<\/strong> verwendet werden, nicht beeinflusst. Als Beispiel kann <strong>Malware<\/strong> oder <strong>Spam<\/strong> in einem <strong>Bild<\/strong> im <strong>Anhang<\/strong> einer <strong>E-Mail<\/strong> versteckt werden, um die <strong>Erkennung<\/strong> durch die <strong>Anti-Spam-Modelle<\/strong> der <strong>Mailboxen<\/strong> zu verhindern. In \u00e4hnlicher Weise ist es m\u00f6glich, ein <strong>biometrisches Verifizierungssystem<\/strong> zu t\u00e4uschen.<\/p>\n\n\n\n<p><a href=\"https:\/\/liora.io\/de\/data-poisoning-eine-bedrohung-fuer-machine-learning-modelle\">Eine weitere Angriffsart ist das sogenannte &#8222;Data Poisoning&#8220;<\/a>. Bei dieser Methode werden die <strong>Daten<\/strong> verunreinigt, die zum weiteren <strong>Training<\/strong> eines <strong>Machine-Learning-Modells<\/strong> verwendet werden. Durch das Einspritzen von <strong>Mustern<\/strong> in die <strong>Daten<\/strong> wird der <strong>Prozess<\/strong> gest\u00f6rt und das <strong>Modell<\/strong> ver\u00e4ndert. Beim <strong>Modelldiebstahl<\/strong> oder der <strong>Modellextraktion<\/strong> wird ein <strong>Modell<\/strong> rekonstruiert oder es werden die <strong>Daten<\/strong>, mit denen es trainiert wurde, extrahiert. Die <strong>Folgen<\/strong> k\u00f6nnen schwerwiegend sein, wenn die <strong>Trainingsdaten<\/strong> oder das <strong>Modell<\/strong> sensibel und vertraulich sind.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-einige-beispiele-fur-adversarial-attacks\">Einige Beispiele f\u00fcr adversarial attacks<\/h2>\n\n\n\n<p><a href=\"https:\/\/liora.io\/de\/kuenstlicher-schlaf-ki-auch-eine-ki-wird-manchmal-muede\">K\u00fcnstliche Intelligenz ist eine neue Technologie,<\/a> aber es gibt bereits zahlreiche <strong>Adversarial Attacks<\/strong>. Einem <strong>Hacker<\/strong> ist es gelungen, eine <strong>Schildkr\u00f6tenfigur<\/strong> in <strong>3D<\/strong> zu drucken, deren <strong>Textur<\/strong> die <strong>Objekterkennungs-KI<\/strong> von <strong>Google<\/strong> dazu bringt, sie als <strong>Gewehr<\/strong> zu klassifizieren. Ein weiteres Beispiel ist ein <strong>Bild<\/strong> eines <strong>Hundes<\/strong>, das so ver\u00e4ndert wurde, dass es wie eine <strong>Katze<\/strong> aussieht &#8211; sowohl f\u00fcr <strong>Menschen<\/strong> als auch f\u00fcr <strong>Computer<\/strong>.<\/p>\n\n\n\n<p>Angesichts der <a href=\"https:\/\/liora.io\/de\/attgan-ein-tool-zur-veraenderung-von-gesichtsattributen\">Gesichtserkennungssysteme haben viele Menschen &#8222;adversarial patterns&#8220;<\/a> f\u00fcr Brillen und Kleidung entwickelt, die diese KIs t\u00e4uschen k\u00f6nnen. Audio-&#8222;adversarial inputs&#8220; k\u00f6nnen auch i<a href=\"https:\/\/liora.io\/de\/deep-fake-gefahren-massnahmen-und-rechtslage\">ntelligente Assistenten st\u00f6ren und sie daran hindern, Sprachbefehle zu h\u00f6ren<\/a>. In einer im April 2021 ver\u00f6ffentlichten Studie haben Forscher von Google und der University of California in Berkeley nachgewiesen, dass selbst die fortschrittlichsten forensischen Klassifizierer anf\u00e4llig f\u00fcr adversarial attacks sind.<\/p>\n\n\n\n<p>Diese KIs wurden darauf trainiert, zwischen echten und <strong>synthetischen Inhalten zu unterscheiden,<\/strong><\/p>\n\n\n\n<figure class=\"wp-block-image\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/07\/adversarial-attack-chatbot-scaled-e1639139334720.jpg\" alt=\"\" \/><\/figure>\n\n\n\n<p>Ein weiterer bekannter Fall ist der <a href=\"https:\/\/www.sueddeutsche.de\/digital\/microsoft-programm-tay-rassistischer-chat-roboter-mit-falschen-werten-bombardiert-1.2928421\">Chatbot Tay,<\/a> der von <strong>Microsoft<\/strong> auf <strong>Twitter<\/strong> eingesetzt wurde, um durch <strong>Interaktion<\/strong> mit anderen <strong>Internetnutzern<\/strong> zu lernen, wie man eine <strong>Konversation<\/strong> f\u00fchrt. Leider machten sich <strong>Trolle<\/strong> einen Spa\u00df daraus, <strong>Tay<\/strong> mit <strong>Beleidigungen<\/strong> und beleidigenden <strong>\u00c4u\u00dferungen<\/strong> zu f\u00fcttern, um ihn au\u00dfer <strong>Kontrolle<\/strong> zu bringen. <strong>16 Stunden<\/strong> nach dem <strong>Start<\/strong> war <strong>Microsoft<\/strong> gezwungen, seine <strong>KI<\/strong>, die <strong>rassistisch<\/strong> und <strong>homophob<\/strong> geworden war, zu deaktivieren.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-wie-kann-man-sich-vor-einer-adversarial-attack-schutzen\">Wie kann man sich vor einer Adversarial Attack sch\u00fctzen?<\/h2>\n\n\n\n<p>In den letzten Jahren hat sich die Forschung zu <a href=\"https:\/\/liora.io\/de\/adversarial-training\">Adversarial Attacks<\/a> stark entwickelt. Im Jahr 2014 gab es auf dem Server Arxiv.org keine einzige Studie zu diesem Thema. Im Jahr 2020 gibt es auf dieser Plattform mehr als 1.100 Studien. Laut dem Bericht der<strong> National Security Commission on Artificial Intelligence<\/strong> aus dem Jahr 2019 richtet sich hingegen nur ein sehr geringer Prozentsatz der <strong>KI-Forschung<\/strong> auf die Verteidigung gegen gegnerische Angriffe. Dennoch werden Schutzmethoden entwickelt, und das Thema nimmt mittlerweile einen wichtigen Platz auf renommierten Konferenzen wie <strong>NeurIPS, ICLR, DEF CON, Black Hat oder Usenix ein<\/strong>.<\/p>\n\n\n\n<p>Auch <strong>Start-ups<\/strong> werden gegr\u00fcndet, um diese <strong>Plage<\/strong> zu bek\u00e4mpfen. <strong>Resistant AI<\/strong> bietet z. B. ein <strong>Produkt<\/strong> an, mit dem <strong>KI-Algorithmen<\/strong> gegen <strong>Angriffe<\/strong> gest\u00e4rkt werden k\u00f6nnen. Eine gute <strong>Verteidigungsma\u00dfnahme<\/strong> ist es, die <strong>Widerstandsf\u00e4higkeit<\/strong> von <strong>Modellen<\/strong> mit einem <strong>Trojanischen Pferd<\/strong> zu testen. Im Falle von <strong>Machine Learning<\/strong> besteht diese Art von <strong>Angriff<\/strong> darin, das <strong>Modell<\/strong> so zu ver\u00e4ndern, dass es falsche <strong>Antworten<\/strong> liefert. Um diese <strong>Tests<\/strong> zu vereinfachen und es <strong>Unternehmen<\/strong> zu erm\u00f6glichen, sie in gro\u00dfem Ma\u00dfstab durchzuf\u00fchren, haben Forscher der <strong>John Hopkins University<\/strong> das <strong>TrojAI-Framework<\/strong> entwickelt. Dieses <strong>Toolset<\/strong> erzeugt <strong>Datens\u00e4tze<\/strong> und <strong>Modelle<\/strong>, die bereits von <strong>Trojanern<\/strong> manipuliert wurden.<\/p>\n\n\n\n<p>So k\u00f6nnen Forscher ihre Experimente durchf\u00fchren und versuchen, die Auswirkungen der verschiedenen <strong>Datens\u00e4tze <\/strong>auf die Modelle zu verstehen. Es wird einfacher, Erkennungsmethoden zu testen, um die KI besser zu st\u00e4rken. Forscher von Google haben ihrerseits eine Studie ver\u00f6ffentlicht, in der sie ein Framework beschreiben, das Angriffe erkennen kann. Verschiedene Unternehmen bieten Tools an, mit denen man gegnerische Beispiele generieren kann, um die Modelle von <strong>Frameworks wie MxNet, Keras, Facebook<\/strong> <a href=\"https:\/\/liora.io\/de\/pytorch\">PyTorch<\/a>, <a href=\"https:\/\/liora.io\/de\/tensorflow\">TensorFlow<\/a> oder Caffe2 zu t\u00e4uschen. Weitere Beispiele sind Baidu Advbox, Microsoft Counterfit, IBM Adversarial Robustness Toolbox oder <a href=\"https:\/\/github.com\/robustness-gym\/robustness-gym\">Salesforce Robustness Gym.<\/a> Das Labor f\u00fcr k\u00fcnstliche Intelligenz des MIT hat au\u00dferdem das <strong>Tool TextFooler<\/strong> zur St\u00e4rkung von Modellen f\u00fcr die <a href=\"https:\/\/liora.io\/de\/nlp-natural-language-processing-eine-einfuhrung\">nat\u00fcrliche Sprachverarbeitung (NLP) eingef\u00fchrt.<\/a><\/p>\n\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/weiterbildung\/data-ki\/machine-learning-engineer\">Machine Learning Engineer Weiterbildung<\/a><\/div>\n<\/div>\n\n\n\n<script type=\"application\/ld+json\">\n{\n  \"@context\": \"https:\/\/schema.org\",\n  \"@type\": \"FAQPage\",\n  \"mainEntity\": [\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Was ist der Zweck einer Adversarial Attack?\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Das Ziel eines Adversarial Attack ist oft, ein Machine-Learning-Modell zum Scheitern zu bringen \u2013 entweder durch Training mit verf\u00e4lschten Daten oder durch Korrumpierung bereits trainierter Modelle. Beispiele: Aufkleber auf der Stra\u00dfe k\u00f6nnen ein selbstfahrendes Auto in die falsche Spur lenken, minimale Ver\u00e4nderungen k\u00f6nnen medizinische Analysesysteme t\u00e4uschen (gutartiger Tumor wird als b\u00f6sartig klassifiziert), oder ein Stoppschild wird durch ein Klebeband als Geschwindigkeitsbegrenzung interpretiert.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Die verschiedenen Arten von Adversarial Attacks\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Es gibt drei Haupttypen: Ausweichangriffe (h\u00e4ufigste Form \u2013 Daten werden ver\u00e4ndert, um Erkennungssysteme zu umgehen, z.B. Malware in E-Mail-Anh\u00e4ngen), Data Poisoning (Verschmutzung der Trainingsdaten, um das Modell zu st\u00f6ren) und Modelldiebstahl (Rekonstruktion des Modells oder Extraktion sensibler Trainingsdaten). Diese k\u00f6nnen als White-Box (Angreifer kennt Modellparameter) oder Black-Box (keine Kenntnis) ausgef\u00fchrt werden.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Einige Beispiele f\u00fcr adversarial attacks\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Bekannte Beispiele sind: Eine 3D-gedruckte Schildkr\u00f6te mit spezieller Textur, die Googles Objekterkennung als Gewehr klassifiziert; adversarial gestaltete Brillen, die Gesichtserkennung t\u00e4uschen; Audio-Angriffe auf Sprachassistenten; und der ber\u00fcchtigte Fall von Microsofts Chatbot Tay, der innerhalb von 16 Stunden durch Trolle rassistisch und homophob wurde und abgeschaltet werden musste.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Wie kann man sich vor einer Adversarial Attack sch\u00fctzen?\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Die Forschung zu Schutzmethoden entwickelt sich rasant (von 0 Studien 2014 auf \u00fcber 1.100 2020 auf Arxiv.org). Verteidigungsans\u00e4tze umfassen: Testen der Modellresistenz mit Trojanern (TrojAI-Framework von John Hopkins University), Erkennungsframeworks (Google), sowie Tools zur Generierung adversarialer Beispiele f\u00fcr verschiedene Frameworks (Baidu Advbox, Microsoft Counterfit, IBM Adversarial Robustness Toolbox, MITs TextFooler f\u00fcr NLP).\"\n      }\n    }\n  ]\n}\n<\/script>\n","protected":false},"excerpt":{"rendered":"<p>\/*! elementor \u2013 v3.13.3 \u2013 28-05-2023 *\/ .elementor-heading-title{padding:0;margin:0;line-height:1}.elementor-widget-heading .elementor-heading-title[class*=elementor-size-]&gt;a{color:inherit;font-size:inherit;line-height:inherit}.elementor-widget-heading .elementor-heading-title.elementor-size-small{font-size:15px}.elementor-widget-heading .elementor-heading-title.elementor-size-medium{font-size:19px}.elementor-widget-heading .elementor-heading-title.elementor-size-large{font-size:29px}.elementor-widget-heading .elementor-heading-title.elementor-size-xl{font-size:39px}.elementor-widget-heading .elementor-heading-title.elementor-size-xxl{font-size:59px}<\/p>\n","protected":false},"author":87,"featured_media":179315,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-179313","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/179313","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/87"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=179313"}],"version-history":[{"count":5,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/179313\/revisions"}],"predecessor-version":[{"id":219171,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/179313\/revisions\/219171"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/179315"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=179313"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=179313"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}