
OpenAI renforce son engagement dans l’inférence : NVIDIA prépare une puce avec la technologie de Groq et la société réserverait 3 GW de capacité
La course à l’intelligence artificielle ne se résume plus uniquement à l’entraînement de modèles massifs. L’attention s’est déplacée vers un domaine moins visible, mais crucial pour le secteur : l’inférence, c’est-à-dire la capacité de répondre à des millions de requêtes en temps réel avec de faibles latences et des coûts maîtrisés. Dans cette optique, plusieurs rapports récents évoquent un mouvement d’ampleur : NVIDIA préparerait un nouveau processeur dédié à l’inférence, intégrant une technologie de Groq, dont la présentation serait annoncée lors de la GTC 2026. Parallèlement, OpenAI a déjà indiqué avoir sécurisé 3 GW de capacité dédiée à l’inférence avec NVIDIA, ce qui la positionne parmi ses principaux clients pour cette nouvelle plateforme. Ces annonces surviennent peu après qu’OpenAI ait




