{"id":171694,"date":"2023-03-10T18:37:10","date_gmt":"2023-03-10T17:37:10","guid":{"rendered":"https:\/\/liora.io\/de\/?p=171694"},"modified":"2026-02-06T07:00:58","modified_gmt":"2026-02-06T06:00:58","slug":"adversarial-examples","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/adversarial-examples","title":{"rendered":"Adversarial Examples: Was Du wissen musst"},"content":{"rendered":"<p><strong>Seit den 2010er Jahren sind Fehler dank der Fortschritte im Machine Learning und insbesondere im Deep Learning mit tiefen neuronalen Netzen immer seltener geworden. Heute sind sie sogar sehr au\u00dfergew\u00f6hnlich. Dennoch machen diese Modelle manchmal immer noch Fehler, ohne dass es den Forschern gelingt, wirksame Abwehrsysteme zu entwickeln.<\/strong><\/p>\n<a href=\"https:\/\/liora.io\/de\/adversarial-examples-im-machine-learning\">Adversarial Examples<\/a> oder widerspr\u00fcchliche Beispiele geh\u00f6ren zu den Inputs, die das Modell falsch einordnen wird. Um dies zu verhindern, wurde eine Abwehrtechnik entwickelt, die als Adversarial Training bezeichnet wird. Aber wie funktioniert diese Verteidigungstechnik? Ist sie wirklich effektiv?\n<h2>Was ist ein Adversarial Example ?<\/h2>\nAdversarial Training ist eine Technik, die entwickelt wurde, um <a href=\"https:\/\/liora.io\/de\/machine-learning-definition-funktionsweise-anwendungen\">Machine-Learning-Modelle<\/a> vor Adversarial Examples zu sch\u00fctzen.\n\nErinnern wir uns kurz daran, was <strong>Adversarial Examples sind. Adversarial Examples<\/strong> sind leicht gest\u00f6rte Inputs (z. B. Bilder, Texte, Ger\u00e4usche), die f\u00fcr den Menschen nicht wahrnehmbar sind, aber von einem Machine-Learning-Modell falsch klassifiziert werden.\n<figure>\n\t\t\t\t\t\t\t\t\t\t\t<a href=\"https:\/\/openai.com\/blog\/adversarial-example-research\/\">\n<img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/03\/unnamed-1-1.png\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/03\/unnamed-1-1.png 512w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/03\/unnamed-1-1-300x119.png 300w\" sizes=\"(max-width: 512px) 100vw, 512px\" width=\"512\" height=\"203\">\t\t\t\t\t\t\t\t<\/a><figcaption><\/figcaption><\/figure>\nDas Erstaunliche an diesen Angriffen ist die Sicherheit, die das Modell bei der falschen Vorhersage hat. Das obige Beispiel zeigt dies deutlich: W\u00e4hrend das Modell der richtigen Vorhersage nur 57,7 % Vertrauen schenkt, schenkt es der falschen Vorhersage 99,3 % Vertrauen. Wenn du mehr \u00fcber diese erstaunlichen Angriffe erfahren m\u00f6chtest, schau dir den entsprechenden Artikel an\n\nDiese Angriffe sind sehr problematisch. <a href=\"https:\/\/www.science.org\/doi\/10.1126\/science.aaw4399\">Beispielsweise zeigt ein 2019 in Science ver\u00f6ffentlichter Artikel von Forschern aus Harvard und dem MIT,<\/a> wie medizinische KI-Systeme anf\u00e4llig f\u00fcr gegnerische Angriffe sein k\u00f6nnten. Aus diesem Grund ist es notwendig, sich zu verteidigen. An dieser Stelle kommt das <strong>Adversarial Training<\/strong> ins Spiel. Es ist neben der &#8222;Defensive Distillation&#8220; die wichtigste Technik, um sich vor solchen Angriffen zu sch\u00fctzen.\n<h2>Wie funktioniert Adversarial Training ?<\/h2>\nWie funktioniert diese Technik? Es geht darum, das <a href=\"https:\/\/liora.io\/de\/bagging-im-machine-learning-was-ist-das\">Machine-Learning-Modell<\/a> mit vielen Adversarial Examples neu zu trainieren. Wenn in der Trainingsphase eines Vorhersagemodells der Input vom Machine-Learning-Modell falsch klassifiziert wird, lernt der Algorithmus aus seinen Fehlern und passt seine Parameter neu an, um diese Fehler nicht mehr zu machen.\n<figure>\n\t\t\t\t\t\t\t\t\t\t\t<a href=\"https:\/\/www.futura-sciences.com\/tech\/definitions\/intelligence-artificielle-deep-learning-17262\/\">\n<img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/03\/unnamed.jpeg\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/03\/unnamed.jpeg 512w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/03\/unnamed-300x161.jpeg 300w\" sizes=\"(max-width: 512px) 100vw, 512px\" width=\"512\" height=\"275\">\t\t\t\t\t\t\t\t<\/a>\n\n<figcaption><\/figcaption><\/figure>\nSo werden die Modellentwickler nach dem ersten Training des Modells viele <strong>Adversarial Examples<\/strong> erzeugen. Sie werden ihr eigenes Modell mit diesen widerspr\u00fcchlichen Beispielen konfrontieren, damit es diese Fehler nicht mehr macht.\n\nWenn diese Methode die Machine-Learning-Modelle gegen bestimmte<strong> Adversarial Examples<\/strong> verteidigt, kann sie dann die Robustheit des Modells auf alle Adversarial Examples \u00fcbertragen? Die Antwort ist nein. Dieser Ansatz ist insgesamt nicht ausreichend, um alle Angriffe zu stoppen, da die Bandbreite m\u00f6glicher Angriffe zu gro\u00df ist und nicht im Voraus generiert werden kann. Daher ist es oft ein Wettrennen zwischen Hackern, die neue <strong>Adversarial Examples<\/strong> generieren, und Designern, die sich so schnell wie m\u00f6glich davor sch\u00fctzen wollen.&nbsp;\n\nGenerell ist es sehr schwierig, Modelle vor <strong>Adversarial Examples<\/strong> zu sch\u00fctzen, da es fast unm\u00f6glich ist, ein theoretisches Modell f\u00fcr die Entwicklung dieser Beispiele zu erstellen. Dies w\u00fcrde bedeuten, besonders komplexe Optimierungsprobleme zu l\u00f6sen, und wir verf\u00fcgen nicht \u00fcber die notwendigen theoretischen Werkzeuge.&nbsp;\n\nAlle bisher getesteten Strategien scheitern, weil sie nicht anpassungsf\u00e4hig sind: Sie k\u00f6nnen eine Art von Angriff blockieren, lassen aber eine andere Schwachstelle f\u00fcr einen Angreifer offen, der die verwendete Verteidigung kennt. Die Entwicklung einer Verteidigung, die vor einem starken, lernf\u00e4higen Hacker sch\u00fctzen kann, ist ein wichtiges Forschungsgebiet.\n\nZusammenfassend l\u00e4sst sich sagen, dass das Adversarial Training insgesamt dabei versagt, <strong>Machine-Learning-Modelle<\/strong> vor Adversarial-Angriffen zu sch\u00fctzen. Wenn es einen Grund daf\u00fcr gibt, dann ist es der, dass diese Technik eine Verteidigung gegen eine Reihe von bestimmten Angriffen bietet, ohne eine allgemeine Methode zu finden.&nbsp;\n\nWillst du mehr \u00fcber die Herausforderungen der <strong>k\u00fcnstlichen Intelligenz<\/strong> erfahren? M\u00f6chtest du die in diesem Artikel erw\u00e4hnten Techniken des<strong> Deep Learning<\/strong> beherrschen? Dann informiere dich \u00fcber unsere Ausbildung zum Machine Learning Engineer.\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Machine Learning Weiterbildung<\/a><\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Seit den 2010er Jahren sind Fehler dank der Fortschritte im Machine Learning und insbesondere im Deep Learning mit tiefen neuronalen Netzen immer seltener geworden. Heute sind sie sogar sehr au\u00dfergew\u00f6hnlich. Dennoch machen diese Modelle manchmal immer noch Fehler, ohne dass es den Forschern gelingt, wirksame Abwehrsysteme zu entwickeln. Adversarial Examples oder widerspr\u00fcchliche Beispiele geh\u00f6ren zu [&hellip;]<\/p>\n","protected":false},"author":47,"featured_media":171695,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-171694","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/171694","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/47"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=171694"}],"version-history":[{"count":1,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/171694\/revisions"}],"predecessor-version":[{"id":217688,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/171694\/revisions\/217688"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/171695"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=171694"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=171694"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}