{"id":177179,"date":"2026-01-28T12:38:55","date_gmt":"2026-01-28T11:38:55","guid":{"rendered":"https:\/\/liora.io\/de\/?p=177179"},"modified":"2026-02-06T04:39:53","modified_gmt":"2026-02-06T03:39:53","slug":"ai-watermarking-was-ist-das-wozu-dient-es","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/ai-watermarking-was-ist-das-wozu-dient-es","title":{"rendered":"AI Watermarking: Was ist das? Wozu dient es?"},"content":{"rendered":"<p><strong>Beim AI Watermarking werden Machine-Learning-Modelle oder Datens\u00e4tze mit einer digitalen T\u00e4towierung versehen, um sie identifizieren zu k\u00f6nnen. Angesichts der explosionsartigen Zunahme von Inhalten, die durch K\u00fcnstliche Intelligenz erzeugt werden, ist dieser Ansatz unverzichtbar geworden. Finde heraus, welche Techniken es gibt und welche Herausforderungen&#8230;<\/strong><\/p>\nInnerhalb der <strong>Machine-Learning-Community<\/strong> ist das Watermarking oder die digitale T\u00e4towierung der KI ein besonders aktives Forschungsgebiet.\n\nDa generative k\u00fcnstliche Intelligenzen wie <a href=\"https:\/\/liora.io\/de\/chatgpt-wie-funktioniert-dfer-nlp-algorithmus\">ChatGPT<\/a> und <a href=\"https:\/\/liora.io\/de\/dall-e-eine-inspirationsquelle-fuer-kreative-berufe\">DALL-E<\/a> immer realistischere Texte und Bilder erzeugen, ist es dringend notwendig, ein System zu entwickeln, das diese Inhalte von den von Menschen erzeugten unterscheiden kann.\n\nViele Techniken wurden bereits von Forschern erfunden, aber nur wenige werden bereits in der realen Welt angewendet. Ist das wirklich m\u00f6glich? Finde in diesem Artikel alle Antworten auf deine Fragen!\n\n?Auch interessant:\n<table dir=\"ltr\" border=\"1\" cellspacing=\"0\" cellpadding=\"0\">\n<colgroup>\n<col width=\"268\"><\/colgroup>\n<tbody>\n<tr>\n<td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;KI Diskriminierung&quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/ki-diskriminierung-das-solltest-du-wissen\"><a href=\"https:\/\/liora.io\/de\/ki-diskriminierung-das-solltest-du-wissen\" target=\"_blank\" rel=\"noopener\">KI Diskriminierung<\/a><\/td>\n<\/tr>\n<tr>\n<td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;AWS Skill Builder&quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/aws-skill-builder-alles-ueber-dieses-trainingsprogramm\"><a href=\"https:\/\/liora.io\/de\/aws-skill-builder-alles-ueber-dieses-trainingsprogramm\" target=\"_blank\" rel=\"noopener\">AWS Skill Builder<\/a><\/td>\n<\/tr>\n<tr>\n<td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;Dataiku KI Tool&quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/dataiku-ein-unverzichtbares-tool-fuer-data-science-und-ki\"><a href=\"https:\/\/liora.io\/de\/dataiku-ein-unverzichtbares-tool-fuer-data-science-und-ki\" target=\"_blank\" rel=\"noopener\">Dataiku KI Tool<\/a><\/td>\n<\/tr>\n<tr>\n<td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;Google MusicLM KI&quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/google-ki-musiclm-das-neue-musik-chatgpt\"><a href=\"https:\/\/liora.io\/de\/google-ki-musiclm-das-neue-musik-chatgpt\" target=\"_blank\" rel=\"noopener\">Google MusicLM KI<\/a><\/td>\n<\/tr>\n<tr>\n<td data-sheets-value=\"{&quot;1&quot;:2,&quot;2&quot;:&quot;KI braucht Schlaf&quot;}\" data-sheets-hyperlink=\"https:\/\/liora.io\/de\/kuenstlicher-schlaf-ki-auch-eine-ki-wird-manchmal-muede\"><a href=\"https:\/\/liora.io\/de\/kuenstlicher-schlaf-ki-auch-eine-ki-wird-manchmal-muede\" target=\"_blank\" rel=\"noopener\">KI braucht Schlaf<\/a><\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<h2 class=\"wp-block-heading\" id=\"h-was-ist-watermarking\">Was ist Watermarking?<\/h2>\n<strong>Watermarking<\/strong> ist das Hinzuf\u00fcgen einer Nachricht, eines Logos, einer Unterschrift oder von Daten zu einem physischen oder digitalen Objekt. Dadurch soll es m\u00f6glich sein, seine Herkunft und seinen Ursprung zu bestimmen.\n\nDiese Methode wird seit langem bei physischen Objekten wie Banknoten und Briefmarken angewandt, um ihre Echtheit zu beweisen.\n\nHeutzutage gibt es auch Techniken, die das AI Watermarking von digitalen Objekten wie Bildern, Audiodateien oder Videos erm\u00f6glichen. Es werden auch digitale T\u00e4towierungen auf die Daten aufgebracht.\n\nDiese Markierung ist manchmal sichtbar, aber nicht immer. AI Watermarking wird h\u00e4ufig f\u00fcr die <strong>Verwaltung von Urheberrechten<\/strong> eingesetzt, z. B. um die <a href=\"https:\/\/liora.io\/de\/adobe-firefly-ia-in-photoshop\">Herkunft eines Bildes<\/a> nachzuverfolgen. Die ausgefeiltesten Techniken erm\u00f6glichen es, digitale Objekte mit versteckten T\u00e4towierungen zu versehen, die L\u00f6schversuchen widerstehen k\u00f6nnen.\n<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"581\" height=\"350\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/05\/AI-Watermark1.jpg\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/05\/AI-Watermark1.jpg 581w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/05\/AI-Watermark1-300x181.jpg 300w\" sizes=\"(max-width: 581px) 100vw, 581px\"><figcaption><\/figcaption><\/figure>\n<h2 class=\"wp-block-heading\" id=\"h-dataset-watermarking-ki-und-machine-learning\">Dataset-Watermarking KI und Machine Learning<\/h2>\nDerzeit untersuchen Forscher die M\u00f6glichkeiten, KI Watermarking Techniken auf Machine-Learning-Modelle und die Daten, die zu deren Erstellung verwendet werden, anzuwenden.\n\nEs gibt zwei Hauptans\u00e4tze. Beim Model Watermarking wird einem <a href=\"https:\/\/liora.io\/de\/tpot-alles-ueber-diese-python-bibliothek-fuer-machine-learning\">Machine-Learning-Model<\/a>l ein Watermark hinzugef\u00fcgt, um zu erkennen, ob es zur Erstellung einer Vorhersage verwendet wurde.\n\nAlternativ dazu wird beim <a href=\"https:\/\/liora.io\/de\/datasets-top-5-websites-fuer-qualitativ-hochwertige-datensaetze\">Dataset<\/a> AI Watermarking ein Trainingsdatensatz auf unsichtbare Weise ver\u00e4ndert, um zu erkennen, ob ein Modell darauf trainiert wurde.\n\nEs gibt verschiedene M\u00f6glichkeiten, diese Techniken zu implementieren und zu nutzen. Zun\u00e4chst einmal kann das Modell durch das Einspeisen bestimmter Daten in das Trainingsdataset ver\u00e4ndert werden. Diese \u00c4nderungen k\u00f6nnen sp\u00e4ter erkannt werden.\n\nEine andere Methode besteht darin, die Gewichte des Modells w\u00e4hrend oder nach dem Training anzupassen. Auch hier kann diese Ver\u00e4nderung sp\u00e4ter erkannt werden.\n\nDas<strong> Watermarking eines Datensatzes<\/strong> ist angemessen, wenn der Ersteller des Datensatzes nicht am Training der KI beteiligt ist. Es beruht also ausschlie\u00dflich auf der Anpassung des Trainingsdatensatzes.\n\nDadurch l\u00e4sst sich herausfinden, wie ein Modell erzeugt wurde. Im Gegensatz dazu erm\u00f6glicht Model Watermarking die Entdeckung eines Modells, wenn es eingesetzt wird.\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/weiterbildung-machine-learning-engineer\">Machine Learning Weiterbildung<\/a><\/div><\/div>\n\n<h2 class=\"wp-block-heading\" id=\"h-die-herausforderungen-des-ki-watermarking\">Die Herausforderungen des KI Watermarking<\/h2>\nDas<strong> AI Watermarking von Datasets<\/strong> erfordert die Entwicklung neuer Techniken, da die bestehenden Ans\u00e4tze im Kontext von Machine Learning nicht funktionieren.\n\nWenn zum Beispiel ein Bildklassifizierungsmodell trainiert wird, werden alle Wasserzeichen in den Trainingsbildern entfernt, da sie f\u00fcr den Lernprozess nicht relevant sind.\n\nUm n\u00fctzlich zu sein, erfordert das Watermarking eines <strong>ML-Datasets<\/strong>, dass die Daten in einer Weise ver\u00e4ndert werden, die mit dem Labeling \u00fcbereinstimmt. Dadurch werden \u00c4nderungen im Modell induziert, die sp\u00e4ter erkannt werden k\u00f6nnen.\n<h2 class=\"wp-block-heading\" id=\"h-wie-kann-man-das-watermarking-einer-ki-uberprufen\">Wie kann man das Watermarking einer KI \u00fcberpr\u00fcfen?<\/h2>\nEs ist m\u00f6glich, das <strong>Watermarking eines KI-Modells<\/strong> zu \u00fcberpr\u00fcfen, ohne einen direkten Zugriff zu ben\u00f6tigen. Dies gilt insbesondere f\u00fcr die Bestimmung seiner Herkunft und ob es mit einem bestimmten Datensatz trainiert wurde.\n\nUm das Watermark zu \u00fcberpr\u00fcfen, gen\u00fcgt es, seine Produktion als Reaktion auf spezifische Dateneingaben, die zum Aussetzen entworfen wurden, zu inspizieren. Theoretisch ist es also m\u00f6glich, diese Methode auf jede KI anzuwenden.\n<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"517\" height=\"350\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/05\/AI-Watermark2.jpg\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/05\/AI-Watermark2.jpg 517w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/05\/AI-Watermark2-300x203.jpg 300w\" sizes=\"(max-width: 517px) 100vw, 517px\">\n\n<figcaption><\/figcaption><\/figure>\n<h2 class=\"wp-block-heading\" id=\"h-techniken-des-ai-watermarking\">Techniken des AI Watermarking<\/h2>\nIn einem Blogbeitrag stellen die Forscher von Facebook \/ Meta das Konzept der<a href=\"https:\/\/the-decoder.de\/facebook-trackt-ki-trainingsdaten\/\"> &#8222;radioaktiven Daten&#8220; (radioactive data)<\/a> f\u00fcr die KI-Watermarking vor. Ihrer Meinung nach kann man mit dieser Technik feststellen, welches <strong>Dataset<\/strong> verwendet wurde, um ein Modell zu trainieren.\n\nDies hilft, besser zu verstehen, wie verschiedene <strong>Datenbest\u00e4nde<\/strong> die Leistung verschiedener <a href=\"https:\/\/liora.io\/de\/neuronale-netze-einfach-erklaert\">neuronaler Netze<\/a> beeinflussen. Somit gibt diese Art von Technik Forschern und Ingenieuren die F\u00e4higkeit, besser zu verstehen, wie ihre Kollegen ihre Modelle trainieren.\n\nIm weiteren Sinne erm\u00f6glicht dies auch, potenzielle <strong>Verzerrungen<\/strong> in diesen Modellen zu erkennen. So kann beispielsweise verhindert werden, dass bestimmte Datenbest\u00e4nde f\u00fcr Machine-Learning-Zwecke missbraucht werden.\n\nDurch einen wissenschaftlichen Artikel mit dem Titel <strong>&#8222;Open Source Dataset Protection&#8220;<\/strong> schlagen chinesische Forscher eine n\u00fctzliche Methode vor, um zu best\u00e4tigen, dass<strong> kommerzielle KI-Modelle<\/strong> nicht auf Datasets trainiert wurden, die f\u00fcr den Bildungs- oder wissenschaftlichen Gebrauch gedacht sind.\n\nIBM hat 2018 eine Technik vorgestellt, mit der die Eigent\u00fcmerschaft von Diensten f\u00fcr neuronale Netze mithilfe einfacher <a href=\"https:\/\/liora.io\/de\/api-mit-python-datenbank-verbinden\">API-Abfragen<\/a> \u00fcberpr\u00fcft werden kann. Ziel ist es, Deep-Learning-Modelle vor Cyberangriffen zu sch\u00fctzen. Die Forscher haben drei verschiedene Algorithmen erstellt, um relevante Inhalte, zuf\u00e4llige Daten oder Rauschen als Watermarks in die &#8222;neuralen Netze&#8220; einzuf\u00fcgen.\n<h2 class=\"wp-block-heading\" id=\"h-wie-wird-das-ai-watermarking-genutzt\">Wie wird das AI Watermarking genutzt?<\/h2>\nBisher ist das <strong>KI-Watermarking<\/strong> noch haupts\u00e4chlich theoretisch. Es gibt jedoch eine Vielzahl von m\u00f6glichen Anwendungsf\u00e4llen.\n\n<strong>Modell-Watermarking<\/strong> k\u00f6nnte von einer Regierungsbeh\u00f6rde genutzt werden, um zu \u00fcberpr\u00fcfen, ob ein<strong> Machine-Learning-Modell<\/strong>, das in einem Produkt verwendet wird, die Datenschutzgesetze einh\u00e4lt.\n\nEine zivilgesellschaftliche Organisation kann sicherstellen, dass ein Modell, das Entscheidungen trifft, gepr\u00fcft wurde. Die Regulierungsbeh\u00f6rden k\u00f6nnen ihrerseits \u00fcberpr\u00fcfen, ob eine kommerzielle Organisation ein bestimmtes <strong>Machine-Learning-Modell<\/strong> eines Drittanbieters eingesetzt hat, um sie auf ihre Verzerrungen aufmerksam zu machen und das Produkt zu zertifizieren oder einen R\u00fcckruf zu veranlassen.\n\n<strong>Dataset Watermarketing<\/strong> kann feststellen, ob ein Machine-Learning-Modell mit verzerrten oder falschen Daten trainiert wurde, um die Verbraucher zu warnen. Ein Data Steward kann feststellen, ob ein Modell mit pers\u00f6nlichen Daten trainiert wurde, die er zur Verf\u00fcgung gestellt hat, um diese zu sch\u00fctzen.\n\nEin Datenver\u00f6ffentlicher kann feststellen, ob ein Modell mit einer \u00e4lteren Version des Datasets trainiert wurde, um die Nutzer vor bekannten Verzerrungen oder Fehlern zu warnen. Schlie\u00dflich kann ein Regulierer feststellen, welche Datasets von Machine-Learning-Modellen verwendet werden, um Audits zu priorisieren.\n\nGenerell l\u00e4sst sich mit Watermarking feststellen, welches<strong> KI-Modell<\/strong> von einem Dienst verwendet wird und welche Datens\u00e4tze zum Training verwendet werden. Es ist daher ein wertvolles Gut f\u00fcr Transparenz und Ethik.\n\nIn manchen F\u00e4llen kann dieses Ziel auch mit anderen Methoden erreicht werden. Beispielsweise k\u00f6nnen Regulierungsbeh\u00f6rden von Unternehmen verlangen, die verwendeten Datenquellen direkt anzugeben. Watermarking kann jedoch eine bessere Quelle des Vertrauens darstellen.\n\nMit dem Aufkommen von generativen k\u00fcnstlichen Intelligenzen wie <strong>DALL-E und ChatGPT<\/strong> wird Watermarking unerl\u00e4sslich. Nur mit dieser Technik l\u00e4sst sich feststellen, ob ein Inhalt von der KI erstellt wurde.\n\nSo kann z. B. festgestellt werden, ob ein Sch\u00fcler beim Schreiben eines Aufsatzes geschummelt hat oder ob eine generative KI wie MidJourney mit urheberrechtlich gesch\u00fctzten Bildern trainiert wird. Ebenso kann Watermarking helfen, &#8222;<a href=\"https:\/\/liora.io\/de\/deep-fake-gefahren-massnahmen-und-rechtslage\">DeepFakes<\/a>&#8222;-Videos zu erkennen, die mithilfe von KI erzeugt wurden&#8230;\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Bilde dich in KI weiter<\/a><\/div><\/div>\n\n<h2 class=\"wp-block-heading\" id=\"h-chatgpt-und-ai-watermarking\">ChatGPT und AI Watermarking<\/h2>\nSeit seiner Einf\u00fchrung Ende 2022 durch<a href=\"https:\/\/liora.io\/de\/open-ai-chatgpt-gpt-4-ist-da\"> OpenAI<\/a> hat sich ChatGPT schnell zu einem viralen Ph\u00e4nomen entwickelt. Innerhalb von Sekunden kann diese KI alle Fragen beantworten und Texte in allen Sprachen oder sogar in Computersprache generieren.\n\nDieser<strong> Chatbot<\/strong> ist schon jetzt beeindruckend und wird wahrscheinlich mit der f\u00fcr 2023 geplanten Einf\u00fchrung von GPT-4 noch besser werden.\n\nDaher wird es sehr schwierig werden, einen von ChatGPT erzeugten Text von menschlichem Schreiben zu unterscheiden.\n\nEs ist daher unerl\u00e4sslich, ein Watermarking-System f\u00fcr diese<strong> KI<\/strong> zu erfinden, bevor das Web mit Texten \u00fcberschwemmt wird, die von einem Chatbot produziert wurden und m\u00f6glicherweise falsche oder veraltete Informationen enthalten.\n\nZun\u00e4chst beschr\u00e4nkte sich <strong>OpenAI<\/strong> darauf, die Nutzer von ChatGPT aufzufordern, die von der KI erzeugten Inhalte deutlich zu kennzeichnen. Es w\u00e4re jedoch naiv, sich nur auf die Ehrlichkeit der Nutzer zu verlassen.\n\nBereits in den ersten Tagen nach der Einf\u00fchrung der <strong>KI<\/strong> begannen viele Sch\u00fcler, sie zu benutzen, um ihre Noten zu verbessern und zu betr\u00fcgen. Diese Praxis hat sich nat\u00fcrlich wie ein Lauffeuer an den Schulen und Unis verbreitet&#8230;\n\nEs ist auch zu erwarten, dass <strong>Amazon-H\u00e4ndler<\/strong> es benutzen werden, um gef\u00e4lschte Bewertungen zu erstellen, oder dass Regierungen es f\u00fcr Propagandazwecke einsetzen werden. Ebenso werden<a href=\"https:\/\/liora.io\/de\/cybersicherheit-der-ultimative-ratgeber\"> Cyberkriminelle Banden<\/a> es nutzen, um \u00fcberzeugendere Phishing-E-Mails zu verfassen.\n\nAngesichts dieser ernsten Gefahren ist<strong> AI Watermarkin<\/strong>g unverzichtbar geworden. Eine Erkennungsmethode wurde bereits von OpenAI zur DALL-E KI hinzugef\u00fcgt, um eine visuelle Signatur an die von ihr erzeugten Bilder anzuh\u00e4ngen. Bei Textinhalten ist die Aufgabe jedoch viel schwieriger.\n\nDer vielversprechendste Ansatz ist die <strong>Kryptografie.<\/strong> Bei einer Konferenz an der Universit\u00e4t von Texas in Austin stellte der Forscher Scott Aaronson von OpenAI eine experimentelle Technik vor.\n\nDabei w\u00fcrden W\u00f6rter in eine Reihe von Token umgewandelt, die Satzzeichen, Buchstaben oder Teile von W\u00f6rtern darstellen. Diese &#8222;Strings&#8220; k\u00f6nnten aus bis zu 100.000 Token bestehen. Anschlie\u00dfend k\u00f6nnte GPT sie so anordnen, dass sie den Text widerspiegeln.\n\nEs w\u00e4re m\u00f6glich, dieses <strong>Watermark mithilfe eines kryptografischen Schl\u00fcssels<\/strong> zu erkennen, der nur OpenAI bekannt ist. Der Unterschied w\u00e4re daher f\u00fcr den Endnutzer nicht wahrnehmbar.\n\nAnfang Februar 2023 f\u00fchrte OpenAI einen Klassifikator ein, mit dem Inhalte erkannt werden k\u00f6nnen, die von ChatGPT oder anderen KIs erzeugt wurden. Seine Erfolgsrate beschr\u00e4nkt sich jedoch auf 26 %&#8230;\n<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"593\" height=\"350\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/05\/AI-Watermark3.jpg\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/05\/AI-Watermark3.jpg 593w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/05\/AI-Watermark3-300x177.jpg 300w\" sizes=\"(max-width: 593px) 100vw, 593px\">\n\n<figcaption><\/figcaption><\/figure>\n<h2 class=\"wp-block-heading\" id=\"h-eine-technik-zur-erkennung-von-lieblingswortern-der-ki\">Eine Technik zur Erkennung von Lieblingsw\u00f6rtern der KI<\/h2>\nIn einem Artikel, der am 24. Januar 2023 ver\u00f6ffentlicht wurde, stellen Forscher eine Watermarking-Technik f\u00fcr ChatGPT und andere Sprachgenerierungsmodelle vor.\n\nSie basiert auf einer Software, die zwei Wortlisten speichert: eine gr\u00fcne und eine rote. Wenn ein Chatbot wie ChatGPT das n\u00e4chste Wort in dem von ihm generierten Text ausw\u00e4hlt, w\u00e4hlt er normalerweise ein Wort aus der gr\u00fcnen Liste.\n\nUm zu erkennen, ob ein <strong>Text von der KI<\/strong> generiert wurde, l\u00e4sst man eine Software einfach die Anzahl der gr\u00fcnen W\u00f6rter z\u00e4hlen. Ab einem bestimmten Schwellenwert steigt die Wahrscheinlichkeit.\n\nDieser Ansatz erweist sich bei langen Texten als effektiver. Theoretisch k\u00f6nnte er in eine Webbrowser-Erweiterung eingebaut werden, um automatisch auf <strong>KI-generierte Inhalte<\/strong> hinzuweisen.\n\nNat\u00fcrlich ist dieses Tool nicht unfehlbar. Insbesondere ist es m\u00f6glich, einen Text manuell zu bearbeiten, um W\u00f6rter aus der gr\u00fcnen Liste zu ersetzen, vorausgesetzt nat\u00fcrlich, dass du Zugang zu dieser Liste hast. Diese Methode erfordert au\u00dferdem, dass OpenAI und andere KI-Ersteller das Tool implementieren.\n<h2 class=\"wp-block-heading\" id=\"h-ein-wasserzeichen-fur-ki-generierte-stimmen\">Ein Wasserzeichen f\u00fcr KI-generierte Stimmen<\/h2>\nNeben Texten und Bildern ist<strong> K\u00fcnstliche Intelligenz<\/strong> auch hervorragend in der Nachahmung von Stimmen.\n\nMit dem <a href=\"\/\">Tool Vall-E<\/a> kann man z. B. jede beliebige Stimme synthetisieren und sie einen Text vorlesen lassen.\n\nDiese Technologien bieten viele M\u00f6glichkeiten f\u00fcr die Synchronisation von Schauspielern oder H\u00f6rb\u00fcchern, aber sie bergen auch Gefahren. Eine b\u00f6swillige Person kann z. B. gef\u00e4lschte Reden von Politikern oder anderen Prominenten erstellen.\n\nUm der Gefahr des Missbrauchs entgegenzuwirken, hat <strong>Resemble AI<\/strong> ein Watermarking-System f\u00fcr KI-generierte Stimmen entwickelt. Sein Name ist eine Kombination aus den W\u00f6rtern &#8222;perceptual&#8220; (wahrnehmend) und &#8222;thresold&#8220; (Schwelle): PerTh.\n\nDas System nutzt ein<strong> Machine-Learning-Modell<\/strong>, um Datenpakete in den Audioinhalt zu integrieren und sp\u00e4ter wieder abzurufen.\n\nDiese Daten sind nicht wahrnehmbar, aber mit dem Inhalt verwoben. Sie sind schwer zu entfernen und stellen eine M\u00f6glichkeit dar, zu \u00fcberpr\u00fcfen, ob eine Stimme von der <strong>KI<\/strong> erzeugt wurde. Au\u00dferdem l\u00e4sst diese Technik die M\u00f6glichkeit offen, das Audio zu manipulieren, um es zu beschleunigen, zu verlangsamen oder in ein Format wie MP3 zu komprimieren.\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">AI Watermarks erstellen lernen<\/a><\/div><\/div>\n\n\nDas Audio-Watermark ist eigentlich ein tiefer Ton, der von den h\u00f6heren T\u00f6nen vor den Ohren des H\u00f6rers verdeckt wird. Sie liegt also unterhalb der Wahrnehmungsschwelle.\n\nDie Herausforderung f\u00fcr <strong>Resemble AI<\/strong> besteht darin, ein Machine-Learning-Modell zu schaffen, das die T\u00f6ne erzeugen und sie an der richtigen Stelle in einem Audio platzieren kann, sodass sie nicht mehr wahrgenommen werden. Dieses Modell ist auch in der Lage, den Prozess umzukehren, um die Daten abzurufen.\n\nLeider funktioniert diese geniale Methode momentan nur mit Stimmen, die von <strong>Resemble AI<\/strong> und seiner eigenen KI erzeugt wurden. Es wird wohl noch etwas dauern, bis eine universelle L\u00f6sung das Licht der Welt erblickt und zu einem Sicherheitsstandard wird.\n<h2 class=\"wp-block-heading\" id=\"h-ki-ohne-wasserzeichen-ist-in-china-verboten\">KI ohne Wasserzeichen ist in China verboten<\/h2>\nSeit dem<strong> 10. Januar 2023<\/strong> ist es in China verboten, KI-Inhalte ohne Watermarking zu erstellen. Diese Regel wurde von der<strong> Cyberspace-Beh\u00f6rde<\/strong> herausgegeben, die auch f\u00fcr die Zensur im Internet zust\u00e4ndig ist.\n\nDie Regierung weist auf die Gefahren hin, die von der <strong>&#8222;Technologie der tiefen Synthese&#8220;<\/strong> ausgehen. Diese Innovation kann zwar die Bed\u00fcrfnisse der Nutzer erf\u00fcllen, aber auch missbraucht werden, um illegale oder gef\u00e4hrliche Informationen zu verbreiten, den Ruf zu sch\u00e4digen oder Identit\u00e4ten zu stehlen.\n\nLaut der offiziellen Erkl\u00e4rung gef\u00e4hrden von <strong>KI erzeugte Inhalte<\/strong> die nationale Sicherheit und die soziale Stabilit\u00e4t. Neue Produkte m\u00fcssen daher von der Beh\u00f6rde bewertet und genehmigt werden, bevor sie auf den Markt gebracht werden k\u00f6nnen.\n\nDie Bedeutung von Watermarking zur Identifizierung von<strong> KI-Inhalten<\/strong> wird hervorgehoben. Digitale T\u00e4towierungen d\u00fcrfen nicht entfernt, manipuliert oder verborgen werden k\u00f6nnen. Au\u00dferdem m\u00fcssen die Nutzer\/innen ein Konto mit ihren echten Namen anlegen und alle erzeugten Inhalte m\u00fcssen bis zu ihren Erstellern zur\u00fcckverfolgt werden k\u00f6nnen.\n<h2 class=\"wp-block-heading\" id=\"h-eine-ki-die-watermarks-entfernen-kann\">Eine KI, die Watermarks entfernen kann<\/h2>\nDie Entwicklung von <strong>KI-Watermarking-Techniken<\/strong> ist dringend erforderlich, aber KI kann leider auch dazu verwendet werden, Watermarks zu entfernen&#8230;\n\nDas kostenlos erh\u00e4ltliche Tool <strong>WatermarkRemover.io<\/strong> kann digitale T\u00e4towierungen von Bildern entfernen. Auch wenn es f\u00fcr legitime Zwecke eingesetzt werden kann, spricht nichts dagegen, es f\u00fcr b\u00f6sartige Zwecke zu missbrauchen&#8230;\n\nMit dieser K\u00fcnstlichen Intelligenz lassen sich auch komplexe Watermarks mit mehreren Farben oder Deckkraftwerten einfach l\u00f6schen. Es ist zu bef\u00fcrchten, dass es in Zukunft Tools geben wird, die Wasserzeichen von KI-generierten Inhalten entfernen k\u00f6nnen.\n<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"568\" height=\"350\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/05\/AI-Watermark4.jpg\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/05\/AI-Watermark4.jpg 568w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/05\/AI-Watermark4-300x185.jpg 300w\" sizes=\"(max-width: 568px) 100vw, 568px\">\n\n<figcaption><\/figcaption><\/figure>\n<h2 class=\"wp-block-heading\" id=\"h-wie-sieht-die-zukunft-von-ai-watermarking-aus\">Wie sieht die Zukunft von AI Watermarking aus?<\/h2>\nEs sind mehrere Fortschritte notwendig, um <strong>Watermarking AI<\/strong> in der realen Welt anzuwenden und ein \u00d6kosystem um die von den Forschern erfundenen theoretischen Techniken herum aufzubauen.\n\nZun\u00e4chst wird weitere Forschung n\u00f6tig sein, um die besten Techniken zu identifizieren und zu perfektionieren, um Standards f\u00fcr alle verschiedenen Arten von Datenbest\u00e4nden zu entwickeln.\n\nGemeinsame Standards m\u00fcssen auch entwickelt werden, um KI Watermarking in die Kuratierung und Ver\u00f6ffentlichung von<strong> Trainingsdatasets<\/strong> zu integrieren. Dies beinhaltet die Einf\u00fchrung von Watermarks in die Daten, die Erstellung einer zuverl\u00e4ssigen Dokumentation und die Ver\u00f6ffentlichung von Daten, die f\u00fcr die \u00dcberpr\u00fcfung ben\u00f6tigt werden.\n\nEbenso ist es zwingend notwendig, Standards f\u00fcr die Integration von<strong> Watermarking-Schritten<\/strong> in das Training und die Ver\u00f6ffentlichung von <a href=\"https:\/\/liora.io\/de\/data-poisoning-eine-bedrohung-fuer-machine-learning-modelle\">Machine-Learning-Modellen<\/a> zu entwickeln. Schlie\u00dflich m\u00fcssen ein Register und Werkzeuge entwickelt werden, um die \u00dcberpr\u00fcfung von Watermarks durch Organisationen durch Audits zu erm\u00f6glichen.\n<h2 class=\"wp-block-heading\" id=\"h-fazit-ai-watermarking-eine-wichtige-herausforderung-fur-die-welt-von-morgen\">Fazit: AI Watermarking, eine wichtige Herausforderung f\u00fcr die Welt von morgen<\/h2>\nIn einigen Jahrzehnten werden sich die Sitten wahrscheinlich ge\u00e4ndert haben. Wir werden uns an den st\u00e4ndigen Strom von KI-generierten Texten, Bildern und Videos so sehr gew\u00f6hnt haben, dass es nicht mehr notwendig sein wird, zu erkennen, ob ein Inhalt von einem Menschen erstellt wurde oder nicht.\n\nDennoch bleibt das<strong> KI-Watermarking<\/strong> aus Gr\u00fcnden des Urheberrechtsschutzes, der Bek\u00e4mpfung von Verzerrungen und Diskriminierung, der Vermeidung von Desinformation und der <a href=\"https:\/\/liora.io\/de\/cybersicherheit-der-ultimative-ratgeber\">Cybersicherheit<\/a> zwingend erforderlich.\n\nUm Experte f\u00fcr Machine Learning zu werden und zur Entwicklung von Watermarking-Techniken beizutragen, kannst du dich an Liora wenden.\n\nIn unseren Kursen kannst du alle F\u00e4higkeiten erwerben, die du brauchst, um Machine Learning Engineer, Data Engineer oder Data Scientist zu werden.\n\nAlle unsere Programme werden vollst\u00e4ndig im Fernunterricht \u00fcber das Internet absolviert, und unsere staatlich anerkannte Weiterbuldung kann \u00fcber den Bildungsschein finanziert werden. Warte nicht l\u00e4nger und entdecke jetzt Liora!\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Entdecke unsere Weiterbildungen<\/a><\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Beim AI Watermarking werden Machine-Learning-Modelle oder Datens\u00e4tze mit einer digitalen T\u00e4towierung versehen, um sie identifizieren zu k\u00f6nnen. Angesichts der explosionsartigen Zunahme von Inhalten, die durch K\u00fcnstliche Intelligenz erzeugt werden, ist dieser Ansatz unverzichtbar geworden. Finde heraus, welche Techniken es gibt und welche Herausforderungen\u2026<\/p>\n","protected":false},"author":78,"featured_media":177180,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-177179","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/177179","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/78"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=177179"}],"version-history":[{"count":3,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/177179\/revisions"}],"predecessor-version":[{"id":216558,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/177179\/revisions\/216558"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/177180"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=177179"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=177179"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}