Moderno espacio de oficinas en Anthropic con estaciones de trabajo y una zona de recepción.

Expuesto el masivo robo de datos de Claude de Anthropic por parte de China

Anthropic ha acusado a tres empresas chinas de IA (DeepSeek, Moonshot AI y MiniMax) de llevar a cabo «campañas a escala industrial» para sustraer datos de sus modelos Claude IA, según divulgó la empresa el 23 de febrero de 2026. La supuesta trama involucró 24,000 cuentas fraudulentas que realizaron más de 16 millones de interacciones para extraer datos de entrenamiento mediante una técnica llamada model distillation, que Anthropic rastreó hasta las firmas a través de direcciones IP y el análisis de la infraestructura.

The technique at the center of the alleged scheme, model distillation, involves systematically querying a powerful AI system to generate massive datasets of prompts and responses. These datasets can then train smaller models that replicate the original’s capabilities without accessing its proprietary architecture or training data. Anthropic stated the actions violated its terms of service and regional access restrictions, according to the company’s blog post.

La técnica central del presunto esquema, el model distillation, implica consultar de forma sistemática un potente sistema de IA para generar conjuntos masivos de *prompts* y respuestas. Estos conjuntos de datos pueden utilizarse luego para entrenar modelos más pequeños que repliquen las capacidades del original sin acceder a su arquitectura patentada ni a sus datos de entrenamiento. Anthropic declaró que estas acciones infringían sus condiciones de servicio y las restricciones de acceso regional, según la publicación en el blog de la compañía.

The disclosure follows similar warnings from OpenAI, which had previously reported Chinese actors using its services to train competing models. Neither Anthropic nor OpenAI specified which versions of their models were targeted in these campaigns.

Estas advertencias se suman a avisos similares de OpenAI, que previamente había informado de que actores chinos utilizaban sus servicios para entrenar modelos de la competencia. Ni Anthropic ni OpenAI especificaron qué versiones de sus modelos fueron el blanco de estas campañas.

Las pruebas apuntan a una operación coordinada

Anthropic said it attributed the campaigns to the three companies with «high confidence» through multiple forms of evidence. The company traced activity back to the firms using IP addresses and analyzed what it called a «hydra cluster» of distributed technical infrastructure. Industry partners corroborated similar patterns of behavior, Anthropic noted in its announcement.

Anthropic afirmó haber atribuido las campañas a las tres empresas con «alta confianza» mediante múltiples formas de evidencia. La compañía rastreó la actividad hasta las firmas utilizando direcciones IP y analizó lo que denominó un «clúster hidra» de infraestructura técnica distribuida. Los socios del sector corroboraron patrones de comportamiento similares, según señaló Anthropic en su anuncio.

Despite the serious nature of these allegations, DeepSeek, MiniMax, and Moonshot AI have not issued public statements or denials. The companies did not provide immediate comment when contacted by media outlets, according to The New York Times. No legal action or regulatory investigations have been publicly announced.

A pesar de la gravedad de estas acusaciones, DeepSeek, MiniMax y Moonshot AI no han emitido declaraciones públicas ni desmentidos. Las empresas no ofrecieron comentarios inmediatos al ser contactadas por los medios de comunicación, según The New York Times. No se han anunciado públicamente acciones legales ni investigaciones regulatorias.

Preocupación por la seguridad en el sector

The incident highlights critical vulnerabilities in how AI companies protect their models from exploitation. model distillation at this scale allows competitors to bypass the enormous research and costos de investigación y computación necesarios para construir sistemas de IA avanzados, creando lo que los expertos de la industria ven como ventajas competitivas injustas.

El incidente pone de manifiesto vulnerabilidades críticas en la forma en que las empresas de IA protegen sus modelos frente a la explotación. El model distillation a esta escala permite a los competidores eludir los enormes costos de investigación y computación necesarios para construir sistemas de IA avanzados, creando lo que los expertos del sector perciben como ventajas competitivas desleales.

In response, Anthropic announced it would upgrade its systems to make such attacks «harder to execute and easier to detect.» Potential safeguards being explored across the industry include advanced anomaly detection for unusual API usage patterns, stricter rate limiting to prevent large-scale data harvesting, and research into watermarking techniques that could trace the origin of AI-generated outputs.

En respuesta, Anthropic anunció que actualizaría sus sistemas para hacer que tales ataques sean «más difíciles de ejecutar y más fáciles de detectar». Las posibles salvaguardas que se exploran en todo el sector incluyen la detección de anomalías avanzada para patrones inusuales de uso de API, límites de tasa más estrictos para prevenir la recolección de datos a gran escala, e investigación sobre técnicas de marcas de agua que podrían rastrear el origen de los resultados generados por IA.

The allegations underscore mounting tensions between Western AI labs and Chinese competitors as the race for artificial intelligence supremacy intensifies. How companies protect their proprietary models while maintaining accessibility for legitimate users remains a critical challenge facing the rapidly evolving AI industry.

Las acusaciones subrayan las crecientes tensiones entre los laboratorios occidentales de IA y sus competidores chinos a medida que se intensifica la carrera por la supremacía de la inteligencia artificial. El modo en que las empresas protegen sus modelos patentados, manteniendo al mismo tiempo la accesibilidad para los usuarios legítimos, sigue siendo un desafío crítico al que se enfrenta una industria de la IA en rápida evolución.

Sources

  • The New York Times
  • Anthropic