Intel et Google ont annoncé une extension de leur collaboration sur plusieurs années pour développer la prochaine génération d’infrastructures cloud et d’intelligence artificielle. Un message clair en filigrane : l’IA moderne ne repose pas uniquement sur des accélérateurs, mais sur des systèmes hétérogènes où la CPU et les processeurs d’infrastructure retrouvent leur importance. L’annonce, faite le 9 avril, confirme que les processeurs Intel Xeon continueront de jouer un rôle clé dans l’infrastructure de Google Cloud, et que les deux entreprises intensifieront le co-développement de IPU personnalisées, basées sur des ASIC, afin d’améliorer l’efficacité, l’utilisation et la performance à grande échelle.
Cette alliance va bien au-delà d’un simple communiqué. Intel cherche à repositionner la CPU en plein centre du débat sur l’IA, à un moment où le marché commence à réaliser que les déploiements concrets, notamment pour l’inférence et les systèmes d’agents, ne dépendent plus uniquement des GPU. Google, de son côté, construit depuis plusieurs années une infrastructure de plus en plus personnalisée, mêlant CPU, accélérateurs et offloads spécialisés pour optimiser performance et coûts dans le cloud. Cette extension de leur partenariat s’inscrit dans cette logique et renforce l’idée que la prochaine étape de l’IA se jouera aussi bien dans l’architecture des systèmes que dans les modèles eux-mêmes.
Xeon reste la base du cloud de Google
Intel insiste sur le fait que Google Cloud utilisera encore et encore des Xeon pour plusieurs générations dans ses charges d’IA, d’inférence et de calcul général. Le communiqué mentionne explicitement la continuité d’utilisation des Xeon dans l’infrastructure globale de Google et cite en exemple les instances optimisées C4, déjà disponibles avec des Intel Xeon 6. En juillet 2025, Google Cloud a officiellement lancé la disponibilité générale des C4 basées sur Granite Rapids, décrites comme ses premières VM équipées de Xeon 6, destinées à des charges exigeant une haute performance.
Cela importe car cela remet en question la narration simpliste qui, au cours des deux dernières années, tendait à considérer que la CPU perdrait toute importance face aux GPU et TPU. Ce que défendent aujourd’hui Intel et Google, c’est autre chose : à mesure que l’IA évolue de l’entraînement pur vers la inférence, la coordination d’agents, le pré-traitement, l’orchestration et le comportement global du système, la CPU redevient une pièce critique de l’équilibre global. Reuters synthétisait cette idée en soulignant que la montée en puissance des nouvelles charges d’IA augmente la demande en CPU pour l’inférence et le déploiement, pas seulement pour l’entraînement.
Les IPU reprennent du galon comme couche clé d’efficacité
Une autre composante majeure du partenariat concerne les IPU. Intel et Google évoquent l’expansion du co-développement de processeurs d’infrastructure personnalisés, basés sur des ASIC, afin de délester la CPU des fonctions liées au réseau, au stockage et à la sécurité. L’objectif est d’optimiser l’utilisation des ressources du système hôte, d’obtenir des performances plus prévisibles et de mieux faire évoluer dans des environnements hyper-scalables où les charges d’IA cohabitent avec d’importants besoins en trafic, en isolation et en stockage.
Ce n’est pas une idée nouvelle pour ces deux acteurs. En 2022, Google Cloud a déjà lancé les instances C3, les premières de cloud public équipées d’un processeur Intel Xeon de quatrième génération associé à une IPU Intel sur mesure développée avec Google. À l’époque, Google expliquait que cette architecture offload permettait d’obtenir une computation plus prévisible et efficace, tout en accélérant le traitement des données réseaux, du stockage et des paquets avec une latence réduite. La nouveauté aujourd’hui, ce n’est pas seulement l’existence d’IPU, c’est surtout le fait que Intel et Google la placent au centre d’une stratégie plus visible dans l’ère de l’IA hétérogène.
Ce changement de ton est significatif. Pendant longtemps, ces composants étaient présentés comme une amélioration discrète de l’infrastructure, presque invisible pour le client final. Aujourd’hui, ils deviennent une pièce maîtresse de l’efficacité des systèmes d’IA modernes. Et c’est logique : lorsque les coûts liés à l’inférence, au trafic réseau et au transfert de données deviennent prépondérants, toute capacité à décharger les tâches répétitives de la CPU principale devient un avantage déterminant.
Le vrai message : l’IA ne s’organise plus autour d’un seul chip
Ce qui est peut-être le plus intéressant dans cette annonce, c’est sa lecture stratégique. Intel insiste sur le fait que « l’IA ne fonctionne pas uniquement sur des accélérateurs, mais sur des systèmes », tandis que Google parle d’une infrastructure composée de CPU et d’accélérateurs comme la pierre angulaire des systèmes d’IA, depuis l’orchestration de l’entraînement jusqu’à l’inférence et au déploiement. En langage marché, ces deux entreprises défendent que l’avenir ne sera pas fait de architectures monolithiques dominées par un seul type de processeur, mais de plateformes hétérogènes où chaque étape du traitement bénéficie du silicium le plus adapté.
Ce discours permet aussi à Intel de se repositionner dans un contexte de changement stratégique majeur. La société a perdu une partie de sa narrative lors de la montée en puissance initiale de l’IA, dominée par NVIDIA, mais elle conserve une position forte dans les CPU pour centres de données et dans l’infrastructure. S’associer à Google dans cette vision où Xeon + IPU restent essentiels dans le cloud d’IA lui permet de rappeler au marché qu’elle détient encore une partie du terrain que les accelerators ne couvrent pas entièrement.
Pour Google, cette alliance renforce une stratégie d’infrastructure de plus en plus modulaire. La société assemble déjà ses propres TPU, les systèmes Titanium, ses CPU sur mesure comme Axion, et poursuit approfondissant sa relation avec Intel sur Xeon et IPU. Cela lui confère une flexibilité pour optimiser différentes couches du cloud, tout en évitant de dépendre d’une seule technologie pour chaque type de charge.
Une feuille de route ambitieuse avec peu de chiffres précis
Comme c’est souvent le cas avec ce genre d’annonces sur l’infrastructure, Intel et Google laissent une grande part à l’interprétation. Ils n’ont pas précisé combien de générations futures de Xeon seront concernées, ni donné de chiffres concrets sur la performance ou les économies, et n’ont pas non plus indiqué précisément quelles nouvelles IPU verront le jour ni quand. Ce qu’ils ont affirmé, c’est qu’ils poursuivront dans cette voie, en construisant ensemble une infrastructure où CPU et IPU jouent un rôle actif dans l’élaboration de systèmes d’IA plus performants et équilibrés.
Pour un media technologique, c’est la partie la plus essentielle. Plus qu’une simple mise à jour commerciale, cette démarche confirme une tendance de fond : dans la nouvelle phase de l’IA, le débat ne concerne pas seulement l’accélérateur dominant pour l’entraînement, mais aussi la composition globale du système capable de gérer le transfert de données, la coordination des processus, l’inférence avec des coûts maîtrisés, et la compatibilité logicielle du centre de données. Intel et Google veulent jouer un rôle central dans cette évolution. Et, à en juger par cet accord, ils savent que cette bataille ne fait que commencer.
Source : newsroom.intel