L’entreprise d’IA Anthropic a poursuivi le département de la Défense devant un tribunal fédéral après que le Pentagone l’a désignée comme un « risque pour la chaîne d’approvisionnement » le 27 février 2026, interdisant de fait à la société d’accéder aux contrats gouvernementaux. Cette désignation est intervenue après qu’Anthropic a refusé de lever des restrictions éthiques empêchant que ses modèles Claude IA soient utilisés pour la surveillance de masse et les systèmes d’armes autonomes.
Recours sans précédent aux pouvoirs de sécurité
L’initiative du Pentagone marque la première fois qu’une telle désignation est appliquée à une grande entreprise technologique américaine, selon Mayer Brown. Le secrétaire à la Défense, Pete Hegseth, a annoncé que toutes les agences fédérales doivent cesser d’utiliser la technologie d’Anthropic, en invoquant des cadres comme le Federal Acquisition Supply Chain Security Act of 2018 qui visent généralement des technologies étrangères hostiles.
Le différend a commencé lorsque le Pentagone a cherché à renégocier son accord existant avec Anthropic afin de permettre que les modèles Claude IA soient utilisés « à toutes fins licites », selon WIRED. L’entreprise a refusé de supprimer les interdictions d’utiliser sa technologie pour la surveillance de masse intérieure et les systèmes d’armes entièrement autonomes, ce qui a conduit à l’échec des négociations.
L’impact de cette désignation s’étend bien au-delà d’Anthropic elle-même. Des entreprises comme Microsoft et Palantir, qui intègrent des modèles Claude dans des systèmes gouvernementaux tels que le Maven Smart System de Palantir, font face à des perturbations coûteuses, a rapporté le Center for American Progress. Tous les prestataires du gouvernement fédéral se voient désormais interdire d’utiliser ou de fournir les produits d’Anthropic pour des travaux fédéraux.
La bataille juridique s’intensifie

Début mars, Anthropic a déposé une plainte auprès du tribunal de district des États-Unis pour le district nord de la Californie, soutenant que cette désignation constitue des représailles inconstitutionnelles. « La Constitution n’autorise pas le gouvernement à utiliser son immense pouvoir pour punir une entreprise en raison de sa liberté d’expression, » a déclaré la société dans sa requête, qualifiant l’initiative de « campagne illégale de représailles », selon le Center for American Progress.
Microsoft a rapidement soutenu Anthropic par un mémoire d’amicus curiae le 11 mars, avertissant que le retrait de modèles d’IA largement intégrés pourrait « potentiellement entraver les forces américaines à un moment critique », a rapporté Inc.com. Le géant technologique a qualifié la directive du Pentagone de « vague et mal définie », faisant valoir que l’utilisation d’outils de sécurité nationale pour régler des litiges contractuels nuit à l’intérêt public.
Des soutiens ont émergé dans toute la Silicon Valley. Le scientifique en chef de Google DeepMind, Jeff Dean, et d’autres employés de Google et d’OpenAI ont déposé leur propre mémoire d’amicus curiae, avertissant que la décision introduit une « imprévisibilité » qui menace l’innovation en IA américaine, selon Yahoo Finance. Le PDG d’OpenAI, Sam Altman, l’a publiquement qualifiée de « très mauvaise décision ».
L’affaire met en évidence des tensions fondamentales quant à savoir qui contrôle les conditions de déploiement de l’IA dans les applications de défense, ce qui pourrait remodeler la manière dont le Pentagone acquiert des technologies de pointe auprès d’entreprises dotées de cadres éthiques stricts.
Sources
- wired.com
- finance.yahoo.com
- inc.com

