Les États-Unis ont choisi de faire de la distillation des modèles d’Intelligence Artificielle (IA) une priorité stratégique, industrielle et politique. Le message de Washington ne se limite plus à la concurrence commerciale entre laboratoires : la Maison Blanche et plusieurs entreprises américaines soutiennent que des sociétés chinoises, avec DeepSeek au centre de l’attention, exploiteraient des capacités de modèles de pointe développés aux États-Unis afin de renforcer leurs propres systèmes à moindre coût.
Cette offensive s’appuie principalement sur deux arbitrages. D’une part, le mémorandum de la Maison Blanche daté du 23 avril 2026, signé par Michael Kratsios, qui accuse « des entités étrangères, principalement chinoises », de mener des campagnes industrielles pour détourner des modèles américains. D’autre part, la pression publique exercée par OpenAI et Anthropic, qui en février ont porté leurs accusations contre DeepSeek et d’autres laboratoires chinois au domaine politique et médiatique.
La question dépasse le simple problème de propriété intellectuelle. Dans le discours américain, la distillation illégitime est déjà présentée comme une menace pour la sûreté nationale, l’avantage technologique et le contrôle géopolitique sur la prochaine génération de modèles.
Avant d’entrer dans les détails, il est important de rappeler un point essentiel : la distillation est une technique légitime et largement utilisée dans le domaine de l’IA. Elle permet d’entraîner des modèles plus petits et moins coûteux à partir des sorties d’autres modèles plus puissants. Le problème ne réside pas dans la technique elle-même, mais dans son usage présumé non autorisé sur des modèles propriétaires de tiers. Anthropic le précise clairement : la distillation est normale lorsqu’elle est appliquée à ses propres modèles, mais devient problématique lorsqu’elle est exploitée pour acquérir des capacités externes sans permission, à grande échelle.
OpenAI et Anthropic placent DeepSeek au cœur de leurs accusations
OpenAI a formalisé sa position dans un document envoyé le 12 février 2026 au Comité spécial de la Chambre des représentants chargé de la stratégie de compétition avec la Chine. Dans ce texte, l’entreprise affirme que DeepSeek doit être considérée dans le contexte de « efforts continus » visant à exploiter les capacités développées par OpenAI et d’autres laboratoires américains. Elle déclare également avoir détecté des activités compatibles avec des tentatives persistantes de distillation de ses modèles, notamment par des méthodes dissimulées.
Le rapport va au-delà et affirme que des comptes liés à des employés de DeepSeek auraient développé des moyens pour contourner les restrictions d’accès d’OpenAI, en utilisant des routeurs tiers et d’autres stratégies destinées à dissimuler l’origine des requêtes. OpenAI ajoute que DeepSeek aurait aussi créé du code permettant d’accéder à des modèles américains pour obtenir des sorties exploitables dans des processus de distillation automatisée. Selon elle, tout cela fait partie d’un écosystème de plus en plus sophistiqué de vol de capacités.
Anthropic a renforcé ses accusations quelques jours plus tard. Dans une note publiée le 23 février 2026, la société affirme avoir identifié des campagnes « industrielles » menées par trois laboratoires chinois : DeepSeek, Moonshot et MiniMax. Selon leur version, ces campagnes auraient généré plus de 16 millions d’échanges avec Claude via environ 24 000 comptes frauduleux, violant leurs conditions d’utilisation et leurs restrictions régionales.
Concernant DeepSeek, Anthropic évoque plus de 150 000 échanges visant à extraire des capacités de raisonnement, à effectuer des évaluations pour le renforcement ou à développer des alternatives « sûres » pour la censure dans des requêtes politiquement sensibles. La société affirme avoir attribué ces campagnes avec une « confiance élevée » à certains laboratoires à partir de la corrélation d’adresses IP, de métadonnées et d’indicateurs d’infrastructure.
La Maison Blanche en fait une doctrine stratégique
Ce qui est particulièrement nouveau, c’est que ces accusations ne restent plus confinées au domaine des entreprises. Le mémorandum de la Maison Blanche du 23 avril soutient que des acteurs étrangers, principalement chinois, mènent des campagnes industrielles de distillation contre des systèmes frontaliers américains, ce qui menace directement l’avantage concurrentiel que Washington cherche à préserver via l’infrastructure, les puces et les contrôles à l’exportation.
Ce changement s’aligne avec la position d’Anthropic, qui dans son rapport relie la distillation illicite à l’érosion des contrôles à l’exportation. Son argumentation repose sur le fait que si des laboratoires étrangers peuvent extraire des capacités de modèles américains, l’impact des restrictions sur les puces s’en trouve affaibli, car ces acteurs évitent de supporter le coût intégral de l’entraînement et de la sécurité. Anthropic va jusqu’à suggérer que des modèles distillés de manière illicite pourraient perdre des sauvegardes importantes et être détournés à des fins militaires, de surveillance ou cyber offensives.
De leur côté, OpenAI présente aussi cette problématique sous cet angle. Dans leur rapport au Congrès, ils relient directement la protection contre la distillation à la nécessité de freiner ce qu’ils nomment une « IA autocratique » et de préserver le leadership américain en infrastructures, puces, énergie et centres de données.
Au-delà de DeepSeek : un enjeu plus vaste
Si le cas DeepSeek est significatif, il ne constitue sans doute pas la seule préoccupation de Washington. La vraie question concerne la pérennité de la compétition face aux modèles fermés dont une grande partie des capacités pourrait être captée par des acteurs extérieurs via un volume massif de requêtes, des comptes répartis ou une extraction systématique de patterns exploitables pour entraîner des concurrents.
Pour le secteur technologique, cela soulève plusieurs interrogations complexes. Technique, tout d’abord : jusqu’où peut-on empêcher qu’un modèle très sollicité ne devienne un vecteur de comportements imitatifs ? Juridique, ensuite : où débute précisément la violation lorsque la technique employée est connue mais ne copie pas directement les poids, seulement des capacités fonctionnelles ? Politique, enfin : l’administration américaine pourrait-elle faire de ces pratiques un nouveau domaine de sanctions, restriction d’accès ou diplomatie coercitive ?
Pour l’instant, seules existent des notes officielles et des accusations directes de la part d’entreprises concernées. Mais cela suffit déjà à mesurer l’ampleur du choc. La distillation, qui durant des années a été une technique classique de l’IA, commence à apparaître comme un véritable champ de guerre dans la rivalité technologique entre la Chine et les États-Unis. DeepSeek est désormais devenu le symbole visible d’un conflit beaucoup plus vaste.
Questions fréquentes
Qu’est-ce que la distillation de modèles en IA ?
C’est une technique permettant d’entraîner des modèles plus petits ou moins onéreux en utilisant les sorties d’un modèle plus puissant. La pratique est légitime lorsqu’elle concerne ses propres modèles, mais devient contestable lorsqu’elle est effectuée sans autorisation sur des systèmes d’autres entités.
Que reproche exactement OpenAI à DeepSeek ?
OpenAI affirme que DeepSeek poursuit des efforts continus pour exploiter les capacités développées par OpenAI et d’autres laboratoires américains, et qu’elle aurait détecté des activités compatibles avec des tentatives persistantes de distillation de ces modèles via des méthodes dissimulées.
Quelles sont les chiffres avancés par Anthropic à propos de ces campagnes ?
Selon Anthropic, DeepSeek, Moonshot et MiniMax auraient effectué plus de 16 millions d’échanges avec Claude via près de 24 000 comptes frauduleux. Pour DeepSeek, ils estiment plus de 150 000 échanges.
Pourquoi la Maison Blanche qualifie cette situation de problématique de sécurité nationale ?
Car Washington considère que la distillation non autorisée peut compromettre l’avantage technologique américain, affaiblir les contrôles à l’exportation et faciliter l’acquisition de capacités avancées par des rivaux stratégiques, sans qu’ils aient à supporter l’intégralité des coûts de développement et de sécurité.