
OpenAI mise sur Cerebras pour l’inférence rapide et réduire sa dépendance à NVIDIA
Vingt milliards de dollars sur trois ans : c’est l’ampleur de l’investissement qu’OpenAI envisagerait de consacrer à des serveurs équipés de puces Cerebras, selon des informations publiées par The Information et reprises par plusieurs médias financiers anglo-saxons. Si ces chiffres ne sont pas encore officiellement confirmés, ce qui l’est sans équivoque, c’est la direction stratégique qu’OpenAI a choisie : diversifier son infrastructure matérielle pour s’affranchir d’une dépendance excessive à un seul fournisseur de GPU, et conquérir le marché de l’inférence à faible latence. En janvier 2026, OpenAI et Cerebras ont officiellement annoncé un partenariat pluriannuel pour déployer 750 MW de puissance de calcul d’inférence à très faible latence, grâce aux systèmes wafer-scale de Cerebras. La montée en charge débutera progressivement



