Moderner Büroraum bei Anthropic mit Arbeitsplätzen und einem Empfangsbereich.

Chinas massiver Diebstahl von Anthropics Claude-Daten aufgedeckt

Anthropic beschuldigte drei chinesische KI-Unternehmen – DeepSeek, Moonshot AI und MiniMax – der Durchführung von „Kampagnen industriellen Ausmaßes“, um Daten aus seinen Claude-KI-Modellen zu stehlen, wie das Unternehmen am 23. Februar 2026 bekanntgab. Das mutmaßliche Vorhaben umfasste 24.000 betrügerische Konten, die über 16 Millionen Interaktionen generierten, um Trainingsdaten durch eine Technik namens Model Distillation zu extrahieren, was Anthropic anhand von IP-Adressen und Infrastruktur-Analysen den Firmen zuordnete.

Die Technik, die im Zentrum des mutmaßlichen Vorhabens steht, Model Distillation, besteht darin, systematisch ein leistungsstarkes KI-System abzufragen, um riesige Datensätze aus Prompts und Antworten zu erzeugen. Mit diesen Datensätzen können dann kleinere Modelle trainiert werden, die die Fähigkeiten des Originals replizieren, ohne Zugriff auf dessen proprietäre Architektur oder Trainingsdaten zu haben. Anthropic erklärte, dass die Handlungen gegen seine Nutzungsbedingungen und regionale Zugriffsbeschränkungen verstießen, gemäß dem Blog-Beitrag des Unternehmens.

Die Offenlegung folgt ähnlichen Warnungen von OpenAI, das zuvor berichtet hatte, dass chinesische Akteure dessen Dienste nutzten, um konkurrierende Modelle zu trainieren. Weder Anthropic noch OpenAI gaben an, welche Versionen ihrer Modelle Ziel dieser Kampagnen waren.

Belege deuten auf koordinierte Operation hin

Anthropic erklärte, es habe die Kampagnen den drei Unternehmen mit „hoher Sicherheit“ anhand mehrerer Belege zugeordnet. Das Unternehmen verfolgte die Aktivität bis zu den Firmen mithilfe von IP-Adressen und analysierte, was es als einen „Hydra-Cluster“ verteilter technischer Infrastruktur bezeichnete. Branchenpartner bestätigten ähnliche Verhaltensmuster, wie Anthropic in seiner Ankündigung feststellte.

Die Offenlegung folgt ähnlichen Warnungen von OpenAI, das zuvor berichtet hatte, dass chinesische Akteure dessen Dienste nutzten, um konkurrierende Modelle zu trainieren. Weder Anthropic noch OpenAI gaben an, welche Versionen ihrer Modelle in diesen Kampagnen Ziel waren.

Branchenweite Sicherheitsbedenken

Der Vorfall hebt kritische Schwachstellen hervor, wie KI-Unternehmen ihre Modelle vor Ausnutzung schützen können. Model Distillation in diesem Maßstab ermöglicht es Wettbewerbern, die enormen Forschungs- und Rechenkosten zu umgehen, die erforderlich sind, um fortgeschrittene KI-Systeme zu entwickeln, und schafft unfaire Wettbewerbsvorteile, so die Einschätzung von Branchenexperten.

Als Reaktion darauf kündigte Anthropic an, seine Systeme so aufzurüsten, dass solche Angriffe „schwerer auszuführen und leichter zu erkennen“ seien. Zu den branchenweit untersuchten Schutzmaßnahmen gehören fortgeschrittene Anomalieerkennung für ungewöhnliche API-Nutzungsmuster, strengere Zugriffsbeschränkungen, um groß angelegtes Data Harvesting zu verhindern, und Forschungen zu Watermarking-Techniken, die den Ursprung von KI-generierten Ausgaben nachverfolgen könnten.

Die Anschuldigungen unterstreichen die zunehmenden Spannungen zwischen westlichen KI-Laboren und chinesischen Wettbewerbern, da das Rennen um die Vorherrschaft in der künstlichen Intelligenz intensiver wird. Wie Unternehmen ihre proprietären Modelle schützen und gleichzeitig den legitimen Nutzern den Zugang ermöglichen, bleibt eine zentrale Herausforderung der sich rasch entwickelnden KI-Branche.

Sources

  • The New York Times
  • Anthropic