Des personnes entrant dans les locaux d'Anthropic, où se déroulent des discussions sur la sécurité nationale de l'IA.

Différend juridique Anthropic-DoD : affrontement IA sur la sécurité nationale

L’entreprise d’IA Anthropic a poursuivi le département de la Défense devant un tribunal fédéral après que le Pentagone l’a désignée comme un « risque pour la chaîne d’approvisionnement » le 27 février 2026, interdisant de fait à la société d’accéder aux contrats gouvernementaux. Cette désignation est intervenue après qu’Anthropic a refusé de lever des restrictions éthiques empêchant que ses modèles Claude IA soient utilisés pour la surveillance de masse et les systèmes d’armes autonomes.

Recours sans précédent aux pouvoirs de sécurité

L’initiative du Pentagone marque la première fois qu’une telle désignation est appliquée à une grande entreprise technologique américaine, selon Mayer Brown. Le secrétaire à la Défense, Pete Hegseth, a annoncé que toutes les agences fédérales doivent cesser d’utiliser la technologie d’Anthropic, en invoquant des cadres comme le Federal Acquisition Supply Chain Security Act of 2018 qui visent généralement des technologies étrangères hostiles.


Le différend a commencé lorsque le Pentagone a cherché à renégocier son accord existant avec Anthropic afin de permettre que les modèles Claude IA soient utilisés « à toutes fins licites », selon WIRED. L’entreprise a refusé de supprimer les interdictions d’utiliser sa technologie pour la surveillance de masse intérieure et les systèmes d’armes entièrement autonomes, ce qui a conduit à l’échec des négociations.


L’impact de cette désignation s’étend bien au-delà d’Anthropic elle-même. Des entreprises comme Microsoft et Palantir, qui intègrent des modèles Claude dans des systèmes gouvernementaux tels que le Maven Smart System de Palantir, font face à des perturbations coûteuses, a rapporté le Center for American Progress. Tous les prestataires du gouvernement fédéral se voient désormais interdire d’utiliser ou de fournir les produits d’Anthropic pour des travaux fédéraux.

La bataille juridique s’intensifie

Un marteau de juge reposant sur une pile de documents juridiques à côté d'un drapeau américain.

Début mars, Anthropic a déposé une plainte auprès du tribunal de district des États-Unis pour le district nord de la Californie, soutenant que cette désignation constitue des représailles inconstitutionnelles. « La Constitution n’autorise pas le gouvernement à utiliser son immense pouvoir pour punir une entreprise en raison de sa liberté d’expression, » a déclaré la société dans sa requête, qualifiant l’initiative de « campagne illégale de représailles », selon le Center for American Progress.


Microsoft a rapidement soutenu Anthropic par un mémoire d’amicus curiae le 11 mars, avertissant que le retrait de modèles d’IA largement intégrés pourrait « potentiellement entraver les forces américaines à un moment critique », a rapporté Inc.com. Le géant technologique a qualifié la directive du Pentagone de « vague et mal définie », faisant valoir que l’utilisation d’outils de sécurité nationale pour régler des litiges contractuels nuit à l’intérêt public.


Des soutiens ont émergé dans toute la Silicon Valley. Le scientifique en chef de Google DeepMind, Jeff Dean, et d’autres employés de Google et d’OpenAI ont déposé leur propre mémoire d’amicus curiae, avertissant que la décision introduit une « imprévisibilité » qui menace l’innovation en IA américaine, selon Yahoo Finance. Le PDG d’OpenAI, Sam Altman, l’a publiquement qualifiée de « très mauvaise décision ».


L’affaire met en évidence des tensions fondamentales quant à savoir qui contrôle les conditions de déploiement de l’IA dans les applications de défense, ce qui pourrait remodeler la manière dont le Pentagone acquiert des technologies de pointe auprès d’entreprises dotées de cadres éthiques stricts.

Sources

  • wired.com
  • finance.yahoo.com
  • inc.com

Liora (ex DataScientest) est un institut de formation technologique fondé en 2017, qui figure parmi les acteurs de référence du secteur. Liora propose des formations à distance, en bootcamp ou en temps partiel, dans les métiers de la data, du cloud, de l’intelligence artificielle, du développement informatique, de la cybersécurité et de la transformation digitale. La méthode pédagogie est basée sur 80% de pratique asynchrone via une plateforme propriétaire ready to code, et 20% d’accompagnement en direct avec mentors et coachs carrière. Les formations permettent de valider des certifications RNCP de niveau 6 ou 7, souvent accompagnées d’un certificat de reconnaissance délivré par de grandes institutions françaises (Mines Paris, La Sorbonne, ECE, INSEEC, etc.). Elles préparent également à des certifications officielles délivrées par des entreprises technologiques majeures comme Microsoft, AWS ou Google Cloud. À ce jour, Liora compte plus de 50 000 alumni, répartis à travers le monde.

Liora – Your future. Decoded.