Anthropic a accusé trois entreprises d’IA chinoises, DeepSeek, Moonshot AI et MiniMax, d’avoir mené des « campagnes à l’échelle industrielle » pour voler des données de ses modèles Claude, tel que la société l’a révélé le 23 février 2026. Le stratagème présumé impliquait 24 000 comptes frauduleux réalisant plus de 16 millions d’interactions afin d’extraire des données d’entraînement via une technique appelée distillation de modèle, qu’Anthropic a retracée jusqu’aux entreprises en utilisant des adresses IP et une analyse de l’infrastructure.
La technique au cœur de la manœuvre présumée, la distillation de modèle, consiste à interroger systématiquement un système d’IA puissant pour générer d’immenses ensembles d’invites et de réponses. Ces jeux de données peuvent ensuite entraîner des modèles plus petits qui reproduisent les capacités de l’original sans accéder à son architecture propriétaire ni à ses données d’entraînement. Anthropic a déclaré que ces actions violaient ses conditions d’utilisation et les restrictions d’accès régionales, selon le billet de blog de l’entreprise.
Cette divulgation fait écho à des avertissements similaires d’OpenAI, qui avait auparavant signalé que des acteurs chinois utilisaient ses services pour entraîner des modèles concurrents. Ni Anthropic ni OpenAI n’ont fourni de commentaire immédiat lorsque les médias les ont contactés, selon The New York Times. Aucune action en justice ni enquête réglementaire n’a été annoncée publiquement.
Des preuves pointant vers une opération coordonnée
Anthropic a déclaré avoir attribué les campagnes aux trois entreprises avec une « grande certitude » grâce à plusieurs formes de preuves. L’entreprise a remonté l’activité jusqu’aux sociétés en utilisant des adresses IP et a analysé ce qu’elle a qualifié de « cluster hydre » d’infrastructures techniques distribuées. Des partenaires de l’industrie ont corroboré des schémas de comportement similaires, a précisé Anthropic dans son annonce.
Malgré la gravité de ces allégations, DeepSeek, MiniMax et Moonshot AI n’ont pas publié de déclarations publiques ni de démentis. Les entreprises n’ont pas fourni de commentaire immédiat lorsque les médias les ont contactées, selon The New York Times. Aucune action en justice ni enquête réglementaire n’a été annoncée publiquement.
Préoccupations de sécurité à l’échelle de l’industrie
L’incident met en lumière des vulnérabilités critiques dans la manière dont les entreprises d’IA protègent leurs modèles contre l’exploitation. La distillation de modèles à cette échelle permet aux concurrents de contourner les coûts énormes de recherche et de calcul nécessaires pour construire des systèmes d’IA avancés, créant ce que les experts de l’industrie considèrent comme des avantages concurrentiels déloyaux.
En réponse, Anthropic a annoncé qu’elle améliorerait ses systèmes pour rendre de telles attaques « plus difficiles à exécuter et plus faciles à détecter ». Parmi les garde-fous potentiels explorés à l’échelle de l’industrie figurent une détection d’anomalies avancée pour les motifs d’utilisation d’API inhabituels, une limitation du débit plus stricte afin d’empêcher la récolte massive de données, et des recherches sur des techniques de tatouage (watermarking) qui pourraient retracer l’origine des sorties générées par l’IA.
Ces allégations soulignent les tensions croissantes entre les laboratoires d’IA occidentaux et les concurrents chinois à mesure que la course à la suprématie de l’IA s’intensifie. La façon dont les entreprises protègent leurs modèles propriétaires tout en maintenant l’accessibilité pour les utilisateurs légitimes demeure un défi critique pour une industrie de l’IA en évolution rapide.
Sources
- The New York Times
- Anthropic

