Pentagone : OpenAI, Google et NVIDIA branchent l’IA sur les réseaux classifiés

Le Pentagone intègre l'IA d'OpenAI, Google et NVIDIA dans des réseaux classifiés

Le Département de la Défense américain a signé avec huit groupes technologiques pour pousser l’IA générative et agentique au cœur de ses réseaux les plus sensibles. La liste : SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, Amazon Web Services et Oracle. Modèles fondamentaux, infrastructure cloud, puces, services d’entreprise, déploiement à grande échelle : la palette est large, et c’est tout l’enjeu. Une absence pèse lourd, celle d’Anthropic, créatrice de Claude.

L’objectif officiel ne tient pas dans une formule diplomatique. Washington vise une force armée « IA-first ». Concrètement, ça veut dire intégrer ces capacités dans des réseaux classifiés Impact Level 6 et Impact Level 7, ceux qui hébergent les opérations sensibles, le renseignement et, désormais, des agents capables de synthétiser des données, d’interroger des outils et d’assister la prise de décision sous pression.

L’annonce prolonge un mouvement amorcé début 2026, quand le Pentagone a fait passer l’IA générative du statut de pilote à celui d’infrastructure essentielle.

Huit fournisseurs, une stratégie multi-cloud assumée

Le choix de signer avec autant d’acteurs n’a rien d’un saupoudrage. Il répond à une logique précise : éviter la dépendance à un fournisseur unique. Oracle l’a martelé en confirmant son propre accord pour déployer ses capacités IA dans les clouds classifiés du Département. La société insiste sur la nécessité de garder la main sur les données, l’architecture et la trajectoire technologique à long terme.

EntrepriseRôle probable dans l’accord
OpenAIModèles génératifs avancés et capacités agentiques
GoogleModèles, cloud, infrastructure et outils d’IA
MicrosoftCloud, productivité, sécurité et intégration d’entreprise
AWSInfrastructure cloud classifiée et services d’IA
OracleCloud pour environnements classifiés et logiciels d’entreprise
NVIDIAMatériel, accélération IA et logiciels associés
SpaceXInfrastructure technologique et communications
ReflectionModèles d’IA et capacités émergentes pour la défense

Le Pentagone veut plusieurs modèles, plusieurs clouds, plusieurs gammes de puces. Aucune brique ne doit pouvoir conditionner toute la stratégie. C’est une rupture avec la logique du contrat unique qui a longtemps prévalu sur les grands programmes JEDI puis JWCC, où Microsoft et AWS se sont disputé l’exclusivité pendant des années.

GenAI.mil : 1,3 million d’utilisateurs en cinq mois

Les accords s’inscrivent dans le cadre de GenAI.mil, la plateforme IA du Département. Les chiffres officiels donnent une idée de la vitesse d’adoption : plus de 1,3 million d’utilisateurs en cinq mois, des dizaines de millions de prompts traités, des centaines de milliers d’agents déployés.

Militaires, civils du DoD et contractants exploitent ces outils pour ramener à quelques jours des tâches qui prenaient des mois. L’administration cite la synthèse de données, l’amélioration de la compréhension situationnelle et le soutien à la décision dans des environnements complexes. Tous les cas d’usage ne sont pas détaillés publiquement, à dessein.

Cette adoption n’a rien d’anecdotique. Elle change la posture du Département : on ne teste plus l’IA en marge, on l’incorpore au flux de travail quotidien.

Du chatbot à l’agent : ce que change l’arrivée dans les IL6/IL7

Jusqu’ici, l’IA militaire travaillait surtout en arrière-plan. Vision par ordinateur, maintenance prédictive, analyse de signaux, logistique, cybersécurité, systèmes autonomes spécialisés. La nouvelle vague pousse les interfaces en langage naturel et les agents capables d’interroger des bases, de lancer des requêtes, de résumer des documents classifiés et d’assister les équipes sur des flux beaucoup plus larges.

Le potentiel opérationnel est sérieux. En théâtre, l’information arrive de satellites, drones, capteurs, renseignement humain, communications, systèmes alliés. Un agent IA peut organiser ce volume, repérer des motifs, simuler des scénarios, accélérer la rédaction des rapports, soutenir la planification, le juridique, la cyberdéfense ou la maintenance.

Les risques sont tout aussi concrets. Les modèles hallucinent, raisonnent sur des données incomplètes, donnent des réponses fausses avec assurance. Dans le civil, ça coûte du temps. Dans une chaîne de commandement, ça peut coûter beaucoup plus cher.

Le danger central s’appelle biais d’automatisation : faire confiance à une recommandation parce qu’elle paraît plus rapide, plus complète, plus technique. Si un agent résume mal une situation ou priorise une menace fantôme, le décideur humain doit garder le critère, la formation et l’autorité pour le contredire. La promesse d’une « décision supérieure » ne tient que si l’IA aide à mieux raisonner, pas si elle remplace le jugement par une sortie statistique opaque.

L’expression « lawful operational use » (usage opérationnel légal) revient dans les accords. Les fournisseurs s’engagent à respecter le cadre juridique et opérationnel défini par le DoD. Beaucoup de questions restent ouvertes. Quelles tâches concrètes sont autorisées ? Quel niveau d’autonomie pour les agents ? Comment auditer leurs décisions ? Quelles précautions contre la surveillance de masse, la sélection de cibles ou les systèmes armés autonomes ?

L’angle mort : Anthropic et les conditions d’usage

Le grand absent, c’est Anthropic. Plusieurs médias américains rapportent que la société est restée hors de ces accords à cause d’un désaccord avec le DoD sur les conditions d’utilisation et les marges de sécurité en contexte militaire. Au cœur du différend : les limites posées par Anthropic sur la surveillance, les armes autonomes et certains usages à haut risque.

Le détail compte, parce qu’Anthropic a renforcé sa présence côté secteur public et défense ces derniers mois en s’appuyant sur AWS et Palantir. Si l’éviction se confirme, le signal politique est clair : le débat ne se joue pas uniquement sur la performance technique, il se joue aussi sur les politiques d’usage, les restrictions, les audits et la responsabilité contractuelle.

Pour OpenAI, Google, Microsoft, AWS, Oracle, NVIDIA et leurs partenaires, le marché est colossal. Contrats longs, environnements à forte valeur, rôle central dans la stratégie nationale IA. Le contrat OpenAI-DoD à 200 millions signé en juin 2025 n’était que la première marche.

Le revers est connu : protestations internes, contrôles renforcés, pression de la société civile. Google en sait quelque chose avec Project Maven, programme d’analyse d’images par IA pour drones qui avait fait imploser le climat interne et poussé l’entreprise à revoir ses principes IA, avant de lever en 2025 l’interdiction explicite de travailler sur des armes.

Silicon Valley et Pentagone : la fin du divorce

L’annonce confirme une normalisation. Pendant des années, après l’Irak et les révélations sur la surveillance, une partie de la Valley s’est tenue à distance du complexe militaro-industriel. Cette distance s’est réduite avec le cloud gouvernemental, la cybersécurité, la guerre en Ukraine, la compétition avec la Chine et la course IA.

Aujourd’hui, les grands fournisseurs de cloud, de puces et de modèles veulent en être. Microsoft, AWS et Oracle se disputent les charges classifiées depuis des années. NVIDIA est devenu un acteur incontournable de l’infrastructure IA. OpenAI a multiplié les contrats publics. Google revient au centre. SpaceX apporte communications spatiales, lancements et connectivité. Reflection, plus jeune, fait son entrée par la porte de la défense.

Que le Pentagone passe à l’IA générative en réseau classifié avec un éventail aussi large de fournisseurs commerciaux accélère l’adoption. Mais ça complique la gouvernance : chaque modèle a ses capacités, chaque cloud ses contrôles, chaque fournisseur ses politiques, chaque intégration ses dépendances techniques.

Les alliés des États-Unis observeront. Si Washington déploie l’IA générative en classifié sans accident majeur, d’autres pays voudront copier. À la première fuite ou décision discutable, le débat réglementaire s’enflammera.

L’IA entre dans une phase moins visible que celle des chatbots grand public, mais plus sensible. Systèmes fermés, classifiés, opérationnels. Ce qui compte ici n’est plus la créativité ou la fluidité du dialogue, mais la fiabilité, la traçabilité, le contrôle d’accès, la résistance aux attaques, la conformité juridique et la capacité à assister des humains qui décident sous pression.

Le Pentagone a tranché : l’IA fera partie de ses infrastructures fondamentales. La question n’est plus de savoir si l’armée utilisera des modèles génératifs, mais sous quelles conditions, avec quelle transparence et avec quelle responsabilité quand ces outils pèseront sur des décisions aux conséquences réelles.

Questions fréquentes

Qu’a annoncé le Département de la Défense des États-Unis ?
Il a signé des accords avec SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, AWS et Oracle pour déployer des capacités d’IA générative et agentique sur ses réseaux classifiés IL6 et IL7.

Que sont les environnements IL6 et IL7 ?
Ce sont les deux niveaux d’impact les plus élevés utilisés par le DoD pour classifier ses réseaux et systèmes selon la sensibilité des informations traitées. IL6 couvre les données classifiées « Secret », IL7 va au-delà pour des contextes encore plus sensibles.

L’IA prendra-t-elle des décisions militaires de manière autonome ?
Le communiqué officiel cible la synthèse de données, la compréhension situationnelle et l’aide à la décision, pas le remplacement de la responsabilité humaine. Le risque réel reste le biais d’automatisation : faire trop confiance à une recommandation algorithmique sous pression.

Pourquoi Anthropic ne figure-t-elle pas dans la liste ?
Plusieurs médias américains rapportent qu’Anthropic, créatrice de Claude, a été écartée après un désaccord avec le DoD sur les conditions d’usage et les garanties en contexte militaire. La société maintient des restrictions strictes sur la surveillance et les armes autonomes.

Quel est l’enjeu de la stratégie multi-fournisseurs ?
Éviter qu’un seul acteur conditionne toute la stratégie IA militaire des États-Unis. Le Département veut pouvoir basculer entre modèles, clouds et puces sans rester captif d’un fournisseur unique sur le long terme.

vía : war.gov

le dernier