{"id":169914,"date":"2023-02-26T18:03:19","date_gmt":"2023-02-26T17:03:19","guid":{"rendered":"https:\/\/liora.io\/de\/?p=169914"},"modified":"2026-02-06T07:04:25","modified_gmt":"2026-02-06T06:04:25","slug":"data-poisoning-eine-bedrohung-fuer-machine-learning-modelle","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/data-poisoning-eine-bedrohung-fuer-machine-learning-modelle","title":{"rendered":"Data Poisoning: Eine Bedrohung f\u00fcr Machine-Learning-Modelle"},"content":{"rendered":"<p><strong>Unter den vielen verschiedenen Cyberangriffen, die es gibt und die Computersysteme angreifen, zeichnet sich Data Poisoning dadurch aus, dass die Trainingsdaten von Machine-Learning-Modellen verf\u00e4lscht werden. Was bedeutet dies? Stellt dies eine echte Gefahr dar? Hier ist ein kurzer \u00dcberblick \u00fcber diesen speziellen Angriff, die daraus resultierenden Bedrohungen und M\u00f6glichkeiten, sich dagegen zu wehren.<\/strong><\/p>\n<h3>Was ist Data Poisoning ?<\/h3>\nData-Poisoning-Angriffe traten mit der massiven Einf\u00fchrung von Machine-Learning-Modellen Ende des 20. Jahrhunderts auf.&nbsp;\n\nDiese Angriffe treten in der Trainingsphase von Machine-Learning-Modellen auf. Ein Machine-Learning-Modell muss mit echten Daten trainiert werden, damit es funktioniert. Nach und nach wird das <strong>Machine-Learning-Modell<\/strong> aus seinen Fehlern lernen und seine Aufgabe immer genauer ausf\u00fchren.\n\nEin <a href=\"https:\/\/liora.io\/de\/kreuzvalidierungsverfahren-definition-und-bedeutung-fur-machine-learning\"><strong>Prognosemodell<\/strong> <\/a>ist ein Computerprogramm, das in der Lage ist, eine bestimmte Aufgabe zu erf\u00fcllen, z. B. Folgendes zu erkennen&nbsp;\n<figure>\n\t\t\t\t\t\t\t\t\t\t\t<a href=\"https:\/\/www.futura-sciences.com\/tech\/definitions\/intelligence-artificielle-deep-learning-17262\/\">\n<img decoding=\"async\" width=\"512\" height=\"275\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/02\/unnamed-2.jpeg\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/02\/unnamed-2.jpeg 512w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/02\/unnamed-2-300x161.jpeg 300w\" sizes=\"(max-width: 512px) 100vw, 512px\">\t\t\t\t\t\t\t\t<\/a><figcaption>Source : \u00a9 MapR, C.D, Futura<\/figcaption><\/figure>\nAber der<strong> Data Poisoning<\/strong>-Angriff, der auf die <strong>Trainingsphase<\/strong> einwirkt, wird die Ergebnisse des Vorhersagemodells ver\u00e4ndern oder sogar komplett verf\u00e4lschen. Das Beispiel der Angriffe, die sich zwischen 2017 und 2018 gegen Googles Anti-Spam-System richteten, zeigt deutlich, wie sie wirken. Googles Anti-Spam-Modell wird mit Daten trainiert, die man als Input\/Tag-Paare bezeichnet.Der Input ist eine E-Mail oder eine Textnachricht und das Label gibt an, ob es sich bei der Nachricht um Spam handelt oder nicht.\n\nHier kommt die Data Poisoning-Attacke ins Spiel. Er wird diese Trainingsdaten massiv korrumpieren und verf\u00e4lschen, indem er z. B. angibt, dass eine Spam-Nachricht keine Spam-Nachricht ist. Dieser Angriff wird die <strong>Genauigkeit des Machine-Learning-Modells<\/strong> beeintr\u00e4chtigen. Im Fall von Google reiben sich die Spammer dann die H\u00e4nde: Sie k\u00f6nnen Spam versenden, ohne dass das Antispam-Modell von Google dies meldet. <strong>Data Poisoning-Angriffe<\/strong> k\u00f6nnen auch auf Modelle zur Erkennung von Verkehrsschildern einwirken, die z. B. f\u00fcr selbstfahrende Autos verwendet werden.\n\nWenn dieses Modell vergiftet wird, k\u00f6nnte es durchaus ein Stoppschild mit einem Geschwindigkeitsbegrenzungsschild verwechseln.\n\n<a href=\"https:\/\/portswigger.net\/daily-swig\/trojannet-a-simple-yet-effective-attack-on-machine-learning-models\">\n<img decoding=\"async\" width=\"512\" height=\"237\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/02\/unnamed-3-3.png\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/02\/unnamed-3-3.png 512w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/02\/unnamed-3-3-300x139.png 300w\" sizes=\"(max-width: 512px) 100vw, 512px\">\t\t\t\t\t\t\t\t<\/a>\n\nDieser Angriff ist f\u00fcr den kleinsten Hacker sehr leicht zug\u00e4nglich geworden. Fr\u00fcher waren <strong>Data Poisoning-Angriffe<\/strong> schwer durchf\u00fchrbar, weil sie eine hohe Rechenleistung, Zeit und Geld erforderten. Mit neuen Techniken k\u00f6nnen diese Hindernisse jedoch umgangen werden. Besonders problematisch ist die <strong>TrojanNet-Backdoor-Technik.<\/strong> Diese Technik ben\u00f6tigt durch die Erstellung eines neuronalen Netzes, das eine Reihe von Patches erkennt, keinen Zugriff auf das <strong>Originalmuster<\/strong> und kann von einem einfachen Computer durchgef\u00fchrt werden.&nbsp;\n<h3>Was sind die Data Poisoning Gefahren ?<\/h3>\nDie Tatsache, dass ein <strong>Data Poisoning-Angriff<\/strong> sehr leicht zug\u00e4nglich geworden ist, macht ihn zu einer echten Gefahr. Wenn die Trainingsphase des Modells einmal abgeschlossen ist, ist es sehr schwierig, das <strong>Machine-Learning-Modell<\/strong> zu korrigieren. Man m\u00fcsste eine lange Analyse aller Inputs, die das Modell trainiert haben, durchf\u00fchren, betr\u00fcgerische Inputs aufsp\u00fcren und sie entfernen. Wenn die Datenmenge jedoch zu gro\u00df ist, ist eine solche Analyse schlichtweg unm\u00f6glich. Die einzige L\u00f6sung ist dann, das Modell erneut zu trainieren.\n\nDiese Trainingsphasen k\u00f6nnen jedoch extrem teuer sein: Im Fall des von <a href=\"https:\/\/liora.io\/de\/open-source-definition\">Open AI<\/a> entwickelten KI-Systems GPT-3 kostete die Trainingsphase rund 16 Millionen Euro&#8230;.\n\n\u00dcber die reinen wirtschaftlichen Kosten hinaus kann Data Poisoning eine noch gr\u00f6\u00dfere Gefahr darstellen. K\u00fcnstliche Intelligenz und Machine-Learning-Modelle nehmen in unserer Gesellschaft einen immer gr\u00f6\u00dferen Stellenwert ein und werden f\u00fcr Aufgaben von h\u00f6chster Wichtigkeit eingesetzt, z. B. im Gesundheitswesen, im Transportwesen und bei der Ermittlung von Straftaten. Die Polizei von Chicago setzt KI zum Beispiel bei der Verbrechensbek\u00e4mpfung ein, um vorherzusagen, wann und wo Gewaltverbrechen stattfinden werden.\n\nWas passiert, wenn die Daten in ihren Modellen vergiftet werden?\n\nDie Verbrechensbek\u00e4mpfung wird ineffizient und die Modelle lenken die Polizei auf falsche F\u00e4hrten.\n<h3>Wie kann man sich vor Data Poisoning sch\u00fctzen ?<\/h3>\nGl\u00fccklicherweise gibt es Mittel und Wege, um gegen <strong>Data Poisoning<\/strong> vorzugehen.&nbsp;\n\nEine erste Technik besteht darin, die <a href=\"https:\/\/liora.io\/de\/datenbank-data-management-weiterbildung\">Datenbanken<\/a> zu \u00fcberpr\u00fcfen, bevor sie in die Trainingsdaten des Modells eingespeist werden. Dies kann durch statistische Methoden zur Erkennung von Anomalien in den Daten, durch Regressionstests oder auch durch manuelle Moderation geschehen.&nbsp;\n\nMithilfe von Cloud-Tools wie Azure Monitor oder Amazon SageMaker kann man auch feststellen, ob die Leistung des Modells w\u00e4hrend der Trainingsphase abnimmt, und sofort darauf reagieren.&nbsp;\nDa <strong>Data Poisoning<\/strong> eine Vorkenntnis des Modells voraussetzt, m\u00fcssen die Informationen \u00fcber die Funktionsweise des Modells w\u00e4hrend der Trainingsphase geheim gehalten werden.\n\n<strong>Data Poisoning<\/strong> stellt also eine echte IT-Bedrohung dar, und das umso mehr, als diese Angriffe f\u00fcr Hacker immer leichter zug\u00e4nglich sind. Angesichts des technischen Fortschritts der Hacker liegt die Herausforderung jedoch in der Verbesserung der Pr\u00e4ventionssysteme. Data Scientists und Data Engineers stehen bei der Bek\u00e4mpfung dieser Angriffe an vorderster Front. Sie sind es, die sichere Daten sammeln oder Angriffe w\u00e4hrend der <strong>Trainingsphasen<\/strong> erkennen m\u00fcssen. Wenn du mehr dar\u00fcber erfahren m\u00f6chtest, wie diese Modelle funktionieren und wie sie gesch\u00fctzt werden k\u00f6nnen, dann wirf einen Blick auf unsere <strong>Ausbildungsm\u00f6glichkeiten im Bereich der Datenverarbeitung oder zum <a href=\"https:\/\/liora.io\/de\/data-engineer-rolle-kompetenzen-gehalt\">Data Engineer<\/a>\n<\/strong>\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"\/formation\/data-ia\/\">D\u00e9couvrir nos formations<\/a><\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Unter den vielen verschiedenen Cyberangriffen, die es gibt und die Computersysteme angreifen, zeichnet sich Data Poisoning dadurch aus, dass die Trainingsdaten von Machine-Learning-Modellen verf\u00e4lscht werden. Was bedeutet dies? Stellt dies eine echte Gefahr dar? Hier ist ein kurzer \u00dcberblick \u00fcber diesen speziellen Angriff, die daraus resultierenden Bedrohungen und M\u00f6glichkeiten, sich dagegen zu wehren. Was ist [&hellip;]<\/p>\n","protected":false},"author":47,"featured_media":169915,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2473],"class_list":["post-169914","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-cybersicherheit"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/169914","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/47"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=169914"}],"version-history":[{"count":1,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/169914\/revisions"}],"predecessor-version":[{"id":217725,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/169914\/revisions\/217725"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/169915"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=169914"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=169914"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}