Espace de bureaux moderne chez Anthropic comprenant des postes de travail et une zone d'accueil.

Le vaste vol de données Claude d’Anthropic par la Chine révélé

Anthropic a accusé trois entreprises d’IA chinoises, DeepSeek, Moonshot AI et MiniMax, d’avoir mené des « campagnes à l’échelle industrielle » pour voler des données de ses modèles Claude, tel que la société l’a révélé le 23 février 2026. Le stratagème présumé impliquait 24 000 comptes frauduleux réalisant plus de 16 millions d’interactions afin d’extraire des données d’entraînement via une technique appelée distillation de modèle, qu’Anthropic a retracée jusqu’aux entreprises en utilisant des adresses IP et une analyse de l’infrastructure.

La technique au cœur de la manœuvre présumée, la distillation de modèle, consiste à interroger systématiquement un système d’IA puissant pour générer d’immenses ensembles d’invites et de réponses. Ces jeux de données peuvent ensuite entraîner des modèles plus petits qui reproduisent les capacités de l’original sans accéder à son architecture propriétaire ni à ses données d’entraînement. Anthropic a déclaré que ces actions violaient ses conditions d’utilisation et les restrictions d’accès régionales, selon le billet de blog de l’entreprise.

Cette divulgation fait écho à des avertissements similaires d’OpenAI, qui avait auparavant signalé que des acteurs chinois utilisaient ses services pour entraîner des modèles concurrents. Ni Anthropic ni OpenAI n’ont fourni de commentaire immédiat lorsque les médias les ont contactés, selon The New York Times. Aucune action en justice ni enquête réglementaire n’a été annoncée publiquement.

Des preuves pointant vers une opération coordonnée

Anthropic a déclaré avoir attribué les campagnes aux trois entreprises avec une « grande certitude » grâce à plusieurs formes de preuves. L’entreprise a remonté l’activité jusqu’aux sociétés en utilisant des adresses IP et a analysé ce qu’elle a qualifié de « cluster hydre » d’infrastructures techniques distribuées. Des partenaires de l’industrie ont corroboré des schémas de comportement similaires, a précisé Anthropic dans son annonce.

Malgré la gravité de ces allégations, DeepSeek, MiniMax et Moonshot AI n’ont pas publié de déclarations publiques ni de démentis. Les entreprises n’ont pas fourni de commentaire immédiat lorsque les médias les ont contactées, selon The New York Times. Aucune action en justice ni enquête réglementaire n’a été annoncée publiquement.

Préoccupations de sécurité à l’échelle de l’industrie

L’incident met en lumière des vulnérabilités critiques dans la manière dont les entreprises d’IA protègent leurs modèles contre l’exploitation. La distillation de modèles à cette échelle permet aux concurrents de contourner les coûts énormes de recherche et de calcul nécessaires pour construire des systèmes d’IA avancés, créant ce que les experts de l’industrie considèrent comme des avantages concurrentiels déloyaux.

En réponse, Anthropic a annoncé qu’elle améliorerait ses systèmes pour rendre de telles attaques « plus difficiles à exécuter et plus faciles à détecter ». Parmi les garde-fous potentiels explorés à l’échelle de l’industrie figurent une détection d’anomalies avancée pour les motifs d’utilisation d’API inhabituels, une limitation du débit plus stricte afin d’empêcher la récolte massive de données, et des recherches sur des techniques de tatouage (watermarking) qui pourraient retracer l’origine des sorties générées par l’IA.

Ces allégations soulignent les tensions croissantes entre les laboratoires d’IA occidentaux et les concurrents chinois à mesure que la course à la suprématie de l’IA s’intensifie. La façon dont les entreprises protègent leurs modèles propriétaires tout en maintenant l’accessibilité pour les utilisateurs légitimes demeure un défi critique pour une industrie de l’IA en évolution rapide.

Sources

  • The New York Times
  • Anthropic

Liora (ex DataScientest) est un institut de formation technologique fondé en 2017, qui figure parmi les acteurs de référence du secteur. Liora propose des formations à distance, en bootcamp ou en temps partiel, dans les métiers de la data, du cloud, de l’intelligence artificielle, du développement informatique, de la cybersécurité et de la transformation digitale. La méthode pédagogie est basée sur 80% de pratique asynchrone via une plateforme propriétaire ready to code, et 20% d’accompagnement en direct avec mentors et coachs carrière. Les formations permettent de valider des certifications RNCP de niveau 6 ou 7, souvent accompagnées d’un certificat de reconnaissance délivré par de grandes institutions françaises (Mines Paris, La Sorbonne, ECE, INSEEC, etc.). Elles préparent également à des certifications officielles délivrées par des entreprises technologiques majeures comme Microsoft, AWS ou Google Cloud. À ce jour, Liora compte plus de 50 000 alumni, répartis à travers le monde.

Liora – Your future. Decoded.