Das KI-Unternehmen Anthropic hat das Verteidigungsministerium vor einem Bundesgericht verklagt, nachdem das Pentagon es am 27. Februar 2026 als „Lieferkettenrisiko“ eingestuft hatte, was das Unternehmen de facto von Regierungsaufträgen ausschließt. Die Einstufung erfolgte, nachdem Anthropic sich geweigert hatte, ethische Beschränkungen zu streichen, die verhindern, dass seine Claude KI-Modelle für Massenüberwachung und autonome Waffensysteme eingesetzt werden.
Beispielloser Einsatz von Sicherheitsbefugnissen
Die Maßnahme des Pentagons stellt laut Mayer Brown das erste Mal dar, dass eine derartige Einstufung auf ein großes US-Technologieunternehmen angewendet wurde. Verteidigungsminister Pete Hegseth kündigte an, dass sämtliche Bundesbehörden die Nutzung der Technologie von Anthropic einstellen müssen, unter Berufung auf Regelwerke wie den Federal Acquisition Supply Chain Security Act von 2018, die üblicherweise auf ausländische feindliche Technologie abzielen.
Der Streit entstand, als das Pentagon laut WIRED versuchte, seine bestehende Vereinbarung mit Anthropic neu zu verhandeln, um die Nutzung der Claude KI-Modelle „für alle rechtmäßigen Zwecke“ zu erlauben. Das Unternehmen weigerte sich, Verbote aufzuheben, die den Einsatz seiner Technologie für massenhafte Inlandsüberwachung und vollständig autonome Waffensysteme untersagen, was zum Abbruch der Verhandlungen führte.
Die Auswirkungen der Einstufung reichen weit über Anthropic selbst hinaus. Unternehmen wie Microsoft und Palantir, die Claude KI-Modelle in staatliche Systeme wie Palantirs Maven Smart System integrieren, sehen sich laut dem Center for American Progress kostspieligen Unterbrechungen gegenüber. Allen Regierungsauftragnehmern ist es nun untersagt, Anthropics Produkte für Bundesaufträge zu nutzen oder bereitzustellen.
Rechtsstreit spitzt sich zu

Anfang März reichte Anthropic Klage beim U.S. District Court for the Northern District of California ein und argumentierte, die Einstufung stelle eine verfassungswidrige Vergeltungsmaßnahme dar. „Die Verfassung erlaubt es der Regierung nicht, ihre enorme Macht einzusetzen, um ein Unternehmen für seine geschützte Meinungsäußerung zu bestrafen“, erklärte das Unternehmen in seiner Klageschrift und bezeichnete die Maßnahme laut dem Center for American Progress als „rechtswidrige Vergeltungskampagne“.
Microsoft unterstützte Anthropic umgehend mit einem Amicus-Brief am 11. März und warnte, dass die Entfernung der breit integrierten KI-Modelle „potenziell US-Kampftruppen zu einem kritischen Zeitpunkt beeinträchtigen“ könnte, berichtete Inc.com. Der Technologiekonzern bezeichnete die Anordnung des Pentagons als „vage und mangelhaft definiert“ und argumentierte, der Einsatz von Instrumenten der nationalen Sicherheit zur Beilegung von Vertragsstreitigkeiten untergrabe das öffentliche Interesse.
Unterstützung kam aus dem gesamten Silicon Valley. Jeff Dean, Chief Scientist von Google DeepMind, sowie weitere Mitarbeitende von Google und OpenAI reichten einen eigenen Amicus-Brief ein und warnten, die Entscheidung bringe „Unvorhersehbarkeit“ mit sich, die die amerikanische KI-Innovation bedrohe, so Yahoo Finance. OpenAI-CEO Sam Altman nannte sie öffentlich eine „sehr schlechte Entscheidung“.
Der Fall macht grundlegende Spannungen darüber deutlich, wer die Rahmenbedingungen für den KI-Einsatz in Verteidigungsanwendungen kontrolliert, und könnte die Art und Weise verändern, wie das Pentagon Spitzentechnologie von Unternehmen mit strengen ethischen Richtlinien beschafft.
Sources
- wired.com
- finance.yahoo.com
- inc.com

