Personas que ingresan a la oficina de Anthropic, donde se llevan a cabo debates sobre la seguridad nacional de la IA.

Disputa legal Anthropic-DoD desata conflicto sobre seguridad nacional de IA

La empresa de IA Anthropic demandó al Departamento de Defensa en un tribunal federal después de que el Pentágono la catalogara como un «riesgo para la cadena de suministro» el 27 de febrero de 2026, marginando de hecho a la compañía de la contratación gubernamental. La decisión llegó después de que Anthropic se negara a eliminar las restricciones éticas que impedían que sus modelos de IA Claude se emplearan para vigilancia masiva y sistemas de armas autónomos.

Uso sin precedentes de las facultades de seguridad

La medida del Pentágono supone la primera vez que dicha clasificación se aplica a una gran firma tecnológica estadounidense, según Mayer Brown. El secretario de Defensa Pete Hegseth anunció que todas las agencias federales deben dejar de utilizar la tecnología de Anthropic, invocando normativas como la Federal Acquisition Supply Chain Security Act of 2018 que normalmente se aplican a tecnología extranjera hostil.


La controversia se desató cuando el Pentágono intentó renegociar su contrato vigente con Anthropic para permitir que los modelos de IA Claude se utilizaran «para todos los fines legales», según WIRED. La empresa se negó a retirar las prohibiciones sobre el uso de su tecnología para vigilancia masiva nacional y sistemas de armas totalmente autónomos, lo que condujo a la ruptura de las negociaciones.


Las repercusiones de la clasificación se extienden mucho más allá de la propia Anthropic. Empresas como Microsoft y Palantir, que integran los modelos Claude en sistemas gubernamentales como el Maven Smart System de Palantir, afrontan costosas interrupciones, informó el Center for American Progress. Actualmente todos los contratistas del gobierno tienen prohibido utilizar o suministrar los productos de Anthropic para proyectos federales.

Se intensifica la batalla legal

Un mazo de juez apoyado sobre una pila de documentos legales junto a una bandera estadounidense.

A principios de marzo, Anthropic presentó una demanda ante el Tribunal de Distrito de Estados Unidos para el Distrito Norte de California, argumentando que la medida constituye una represalia inconstitucional. «La Constitución no permite que el gobierno ejerza su enorme poder para castigar a una empresa por su expresión protegida», afirmó la compañía en su escrito, calificando la acción como una «campaña ilegal de represalias», según el Center for American Progress.


Microsoft respaldó rápidamente a Anthropic con un escrito amicus curiae el 11 de marzo, advirtiendo que retirar los modelos de IA ampliamente integrados podría «potencialmente entorpecer a las tropas estadounidenses en un momento crítico», informó Inc.com. El gigante tecnológico calificó la directiva del Pentágono de «vaga y mal definida», argumentando que emplear herramientas de seguridad nacional para resolver disputas contractuales socava el interés público.


El respaldo ha surgido en todo Silicon Valley. El científico principal de Google DeepMind, Jeff Dean, y otros empleados de Google y OpenAI presentaron su propio escrito amicus curiae, advirtiendo que la medida introduce «imprevisibilidad» que amenaza la innovación en IA estadounidense, según Yahoo Finance. El director ejecutivo de OpenAI, Sam Altman, la calificó públicamente como una «decisión muy mala».


El caso pone de manifiesto tensiones fundamentales sobre quién controla las condiciones de implementación de la IA en aplicaciones de defensa, lo que podría transformar la forma en que el Pentágono adquiere tecnología de vanguardia de compañías con marcos éticos sólidos.

Sources

  • wired.com
  • finance.yahoo.com
  • inc.com