{"id":219623,"date":"2026-02-24T11:56:38","date_gmt":"2026-02-24T10:56:38","guid":{"rendered":"https:\/\/liora.io\/de\/chinas-massiver-diebstahl-von-anthropics-claude-daten-aufgedeckt"},"modified":"2026-02-24T11:56:38","modified_gmt":"2026-02-24T10:56:38","slug":"chinas-massiver-diebstahl-von-anthropics-claude-daten-aufgedeckt","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/chinas-massiver-diebstahl-von-anthropics-claude-daten-aufgedeckt","title":{"rendered":"Chinas massiver Diebstahl von Anthropics Claude-Daten aufgedeckt"},"content":{"rendered":"<p><strong>Anthropic beschuldigte drei chinesische KI-Unternehmen &#8211; DeepSeek, Moonshot AI und MiniMax &#8211; der Durchf\u00fchrung von \u201eKampagnen industriellen Ausma\u00dfes\u201c, um Daten aus seinen Claude-KI-Modellen zu stehlen, wie das Unternehmen am 23. Februar 2026 bekanntgab. Das mutma\u00dfliche Vorhaben umfasste 24.000 betr\u00fcgerische Konten, die \u00fcber 16 Millionen Interaktionen generierten, um Trainingsdaten durch eine Technik namens Model Distillation zu extrahieren, was Anthropic anhand von IP-Adressen und Infrastruktur-Analysen den Firmen zuordnete.<\/strong><\/p>\n<p>Die Technik, die im Zentrum des mutma\u00dflichen Vorhabens steht, <strong>Model Distillation<\/strong>, besteht darin, systematisch ein leistungsstarkes KI-System abzufragen, um riesige Datens\u00e4tze aus Prompts und Antworten zu erzeugen. Mit diesen Datens\u00e4tzen k\u00f6nnen dann kleinere Modelle trainiert werden, die die F\u00e4higkeiten des Originals replizieren, ohne Zugriff auf dessen propriet\u00e4re Architektur oder Trainingsdaten zu haben. <strong>Anthropic<\/strong> erkl\u00e4rte, dass die Handlungen gegen seine Nutzungsbedingungen und regionale Zugriffsbeschr\u00e4nkungen verstie\u00dfen, gem\u00e4\u00df dem Blog-Beitrag des Unternehmens.<\/p>\n<p>Die Offenlegung folgt \u00e4hnlichen Warnungen von <strong>OpenAI<\/strong>, das zuvor berichtet hatte, dass chinesische Akteure dessen Dienste nutzten, um konkurrierende Modelle zu trainieren. Weder Anthropic noch OpenAI gaben an, welche Versionen ihrer Modelle Ziel dieser Kampagnen waren.<\/p>\n<h3 style=\"margin-top:2rem;margin-bottom:1rem;\">Belege deuten auf koordinierte Operation hin<\/h3>\n<p>Anthropic erkl\u00e4rte, es habe die Kampagnen den drei Unternehmen mit \u201ehoher Sicherheit\u201c anhand mehrerer Belege zugeordnet. Das Unternehmen verfolgte die Aktivit\u00e4t bis zu den Firmen mithilfe von <strong>IP-Adressen<\/strong> und analysierte, was es als einen \u201eHydra-Cluster\u201c verteilter technischer Infrastruktur bezeichnete. Branchenpartner best\u00e4tigten \u00e4hnliche Verhaltensmuster, wie Anthropic in seiner Ank\u00fcndigung feststellte.<\/p>\n<p>Die Offenlegung folgt \u00e4hnlichen Warnungen von <strong>OpenAI<\/strong>, das zuvor berichtet hatte, dass chinesische Akteure dessen Dienste nutzten, um konkurrierende Modelle zu trainieren. Weder Anthropic noch OpenAI gaben an, welche Versionen ihrer Modelle in diesen Kampagnen Ziel waren.<\/p>\n<h3 style=\"margin-top:2rem;margin-bottom:1rem;\">Branchenweite Sicherheitsbedenken<\/h3>\n<p>Der Vorfall hebt kritische Schwachstellen hervor, wie KI-Unternehmen ihre Modelle vor Ausnutzung sch\u00fctzen k\u00f6nnen. <strong>Model Distillation<\/strong> in diesem Ma\u00dfstab erm\u00f6glicht es Wettbewerbern, die enormen Forschungs- und Rechenkosten zu umgehen, die erforderlich sind, um fortgeschrittene KI-Systeme zu entwickeln, und schafft unfaire Wettbewerbsvorteile, so die Einsch\u00e4tzung von Branchenexperten.<\/p>\n<p>Als Reaktion darauf k\u00fcndigte Anthropic an, seine Systeme so aufzur\u00fcsten, dass solche Angriffe \u201eschwerer auszuf\u00fchren und leichter zu erkennen\u201c seien. Zu den branchenweit untersuchten Schutzma\u00dfnahmen geh\u00f6ren fortgeschrittene <strong>Anomalieerkennung<\/strong> f\u00fcr ungew\u00f6hnliche API-Nutzungsmuster, strengere Zugriffsbeschr\u00e4nkungen, um gro\u00df angelegtes Data Harvesting zu verhindern, und Forschungen zu <strong>Watermarking-Techniken<\/strong>, die den Ursprung von KI-generierten Ausgaben nachverfolgen k\u00f6nnten.<\/p>\n<p>Die Anschuldigungen unterstreichen die zunehmenden Spannungen zwischen westlichen KI-Laboren und chinesischen Wettbewerbern, da das Rennen um die Vorherrschaft in der k\u00fcnstlichen Intelligenz intensiver wird. Wie Unternehmen ihre propriet\u00e4ren Modelle sch\u00fctzen und gleichzeitig den legitimen Nutzern den Zugang erm\u00f6glichen, bleibt eine zentrale Herausforderung der sich rasch entwickelnden KI-Branche.<\/p>\n<div style=\"margin-top:3rem;padding-top:1.5rem;border-top:1px solid #e2e4ea;\">\n<h3 style=\"margin:0 0 0.75rem;font-size:1.1rem;letter-spacing:0.08em;text-transform:uppercase;\">\n    Sources<br \/>\n  <\/h3>\n<ul style=\"margin:0;padding-left:1.2rem;list-style:disc;\">\n<li>The New York Times<\/li>\n<li>Anthropic<\/li>\n<\/ul>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Anthropic beschuldigte drei chinesische KI-Unternehmen &#8211; DeepSeek, Moonshot AI und MiniMax &#8211; der Durchf\u00fchrung von \u201eKampagnen industriellen Ausma\u00dfes\u201c, um Daten aus seinen Claude-KI-Modellen zu stehlen, wie das Unternehmen am 23. Februar 2026 bekanntgab. Das mutma\u00dfliche Vorhaben umfasste 24.000 betr\u00fcgerische Konten, die \u00fcber 16 Millionen Interaktionen generierten, um Trainingsdaten durch eine Technik namens Model Distillation zu extrahieren, was Anthropic anhand von IP-Adressen und Infrastruktur-Analysen den Firmen zuordnete.<\/p>\n","protected":false},"author":87,"featured_media":219621,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2473,2475],"class_list":["post-219623","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-cybersicherheit","category-nachrichten"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/219623","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/87"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=219623"}],"version-history":[{"count":0,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/219623\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/219621"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=219623"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=219623"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}