Le Pentagone accélère l’« IA en production » : Claude, ChatGPT, Gemini et Grok rivalisent pour le cœur (et le contrôle) de la défense des États-Unis

Le Pentagone accélère l'« IA en production » : Claude, ChatGPT, Gemini et Grok rivalisent pour le cœur (et le contrôle) de la défense des États-Unis

L’intelligence artificielle générative ne constitue plus un simple projet expérimental au sein du Département de la Défense des États-Unis : elle devient une infrastructure essentielle. En seulement quelques mois, l’administration militaire est passée d’expérimentations limitées à une stratégie à plusieurs fournisseurs, où divers modèles commerciaux coexistent (ou rivalisent) pour intégrer les réseaux non classifiés et, surtout, s’immiscent dans le domaine le plus sensible : les systèmes classifiés.

Ce saut s’accompagne d’une tension sous-jacente qui dépasse la simple technologie. Le Pentagone insiste pour que les entreprises adoptent un principe large : la disponibilité du modèle pour “tous les usages légaux”. La industrie répond en traçant des lignes rouges très différentes concernant la surveillance, l’utilisation des données et l’autonomie létale. Le différend avec Anthropic — qui a abouti à la désignation de la société comme “risque pour la chaîne d’approvisionnement” — constitue le symptôme visible de cette étape nouvelle.

Deux niveaux de déploiement : GenAI.mil pour le non classifié et la course pour le classifié

Il est plus clair d’appréhender l’architecture actuelle en distinguant deux couches.

  1. Environnement non classifié (GenAI.mil)
    OpenAI a annoncé le déploiement d’une version personnalisée de ChatGPT sur GenAI.mil, conçue comme une plateforme “sécurisée” pour le travail non classifié, utilisée par 3 millions de personnes (civiles et militaires). OpenAI assure que les données traitées dans cet environnement restent isolées et ne sont pas utilisées pour entraîner des modèles publics ou commerciaux.
  2. Environnement classifié (la grande bataille)
    L’accès y est plus restreint, avec des exigences techniques et procédurales élevées. Jusqu’à présent, plusieurs rapports indiquent que Claude (Anthropic) était le modèle dominant ou le plus intégré dans certains flux classifiés via des tiers, tandis que le Pentagone cherche à diversifier ses options avec d’autres fournisseurs.

Le tableau actuel : quelles IA utilise la défense américaine aujourd’hui ?

Concernant les fournisseurs, le Pentagone a adopté une stratégie d’appels d’offres et de déploiement évolutif. En juillet 2025, le Département de la Défense a attribué des contrats pouvant aller jusqu’à 200 millions de dollars à plusieurs laboratoires (Anthropic, OpenAI, Google et xAI) afin d’accélérer l’intégration de “frontier AI” et de flux “agentiques” dans son écosystème numérique.

Sur cette base, on peut résumer la “photo” de 2026 de la manière suivante :

Comparatif rapide des modèles et déploiements

Fournisseur / modèle Intégration Ce qu’il apporte (d’après ce qui est rapporté) Principale friction
Anthropic – Claude Intégrations liées à des travaux sensibles et à la stabilité du modèle Avantage perçu dans les tâches délicates et les environnements à haute sensibilité Refus de lever les limites sur la surveillance domestique et l’autonomie létale ; conflit politique et étiquetage comme “risque”
OpenAI – ChatGPT GenAI.mil (non classifié) et accords pour étendre leur présence “ChatGPT à grande échelle” pour les tâches administratives, l’analyse et le soutien interne ; version customisée Certaines restrictions ont été assouplies pour l’environnement DoD, tout en conservant des garde-fous
Google – Gemini Disponible dans l’écosystème non classifié (selon la presse spécialisée) et en phases d’expansion Solution alternative à grande échelle axée sur la productivité et l’assistance Opacité sur les conditions exactes et limitations pour les usages sensibles
xAI – Grok Accord pour son usage dans systèmes classifiés (d’après Axios) et présence dans la plateforme du DoD (selon la presse sectorielle) Intégration rapide poussée par contrat et accords ; potentiel pour combler des lacunes Doutes quant à sa capacité à rivaliser réellement avec Claude dans le contexte classifié

(Ce tableau synthétise les informations publiées par plusieurs médias et communiqués récents ; les détails opérationnels peuvent varier selon la mission, le réseau et le prestataire.)

Claude : du “modèle clé” au veto en chaîne

Le cas Anthropic illustre la dimension politique du débat. Selon Axios, le Département de la Défense exigeait que Claude soit accessible pour “tous les usages légaux”, y compris certains scénarios que Anthropic considérait inacceptables. Après plusieurs semaines de pression, le Pentagone a déclaré à l’entreprise qu’elle représentait un “risque pour la chaîne d’approvisionnement” et a lancé une période de retrait, obligeant les contractants à certifier qu’ils n’utilisaient pas Claude dans certains flux.

Ce conflit est techniquement crucial en raison du coût de la substitution : dans les flux sensibles, remplacer un modèle ne se limite pas à une simple migration API. Cela implique une revalidation des prompts, des chaînes d’outils, des contrôles d’accès, de la traçabilité, et la vérification des résultats selon des standards internes. Plusieurs sources qualifient ce “désamorçage” comme un processus complexe, notamment si le modèle était intégré à des plateformes tierces.

À cela s’ajoute un facteur sensible : Reuters a rapporté que Claude aurait été utilisé via Palantir dans une opération militaire hautement sensible, citant un rapport du Wall Street Journal. Cependant, Reuters aussi a précisé qu’ils n’avaient pas pu vérifier indépendamment cette information.

ChatGPT dans GenAI.mil : une “ IA administrative” à l’échelle du DoD

OpenAI présente son déploiement comme une étape pragmatique : ChatGPT pour les tâches non classifiées (résumés, analyse de documents internes, brouillons de documents de contrat, listes de conformité, soutien à la planification). Leur message repose sur deux garanties : un environnement cloud autorisé et une séparation des données par rapport aux modèles publics.

Parallèlement, Reuters indique qu’en échange de leur accord pour opérer dans l’environnement du Pentagone, OpenAI aurait accepté de supprimer “de nombreuses” restrictions habituelles, tout en conservant quelques barrières. La nuance est essentielle : le débat ne porte plus seulement sur la présence de garde-fous, mais sur qui décide de leur portée lorsque l’outil est destiné à un usage militaire.

Gemini et Grok : des alternatives croissantes, mais avec des questions en suspens

Concernant Google Gemini, Reuters indique que Google, comme xAI, aurait signé des accords préalables pour déployer ces modèles dans le cadre du Pentagone. Des sources sectorielles rapportent qu’il serait déjà intégré dans la plateforme du DoD aux côtés d’autres modèles.

Quant à Grok (xAI), Axios a signalé un accord pour son utilisation dans systèmes classifiés. Ce mouvement prend du poids après la crise avec Anthropic. Néanmoins, même dans cette optique, tout n’est pas immédiat : remplacer Claude “tel quel” nécessite non seulement de bonnes performances, mais aussi une bonne intégration, des contrôles et une validation dans un contexte hautement sécurisé.

La grande question : modèle “tout-en-un” ou IA aux limites négociées ?

Ce conflit met en lumière deux conclusions, l’une d’ordre technologique, l’autre politique :

  • Technologique : la Défense construit une véritable infrastructure d’IA composée de multiples modèles, avec une couche d’entreprise (GenAI.mil) et une claire volonté d’intégrer ces systèmes dans des réseaux classifiés avec un minimum de friction.
  • Politique : le gouvernement souhaite que l’IA devienne un composant de la chaîne logistique sous son contrôle, tandis que certaines entreprises cherchent à préserver des limites d’utilisation qu’elles considèrent comme un rempart contre des abus majeurs.

Ce qui est contesté aujourd’hui ne se limite pas à savoir quel modèle est supérieur en benchmark, mais concerne aussi la question de qui définit le périmètre de sécurité lorsque le client détient le plus de pouvoir dans l’écosystème.

Source : Défense des États-Unis met Anthropic sous le radar.

le dernier