Groq inaugure son premier centre de données en Europe pour dominer l’ère de l’inférence en intelligence artificielle

Elon Musk présente Colossus : Le cluster IA le plus puissant du monde

Alors que de nombreux géants de la technologie continuent de se concentrer sur la formation de modèles de plus en plus volumineux, une nouvelle course discrète mais tout aussi stratégique émerge : celle de l’exécution rapide, efficace et durable de ces modèles. Dans ce domaine, la startup américaine Groq gagne du terrain. Cette semaine, elle a inauguré son premier centre de données en Europe, situé à Helsinki (Finlande), en collaboration avec Equinix. Leur objectif est clair : dominer le marché de l’inférence en intelligence artificielle, où l’interaction avec l’utilisateur se concrétise réellement.

Dans le cycle de vie de l’IA générative, deux phases principales existent : la formation, où le modèle apprend à prédire des mots, des images ou des tokens, et l’inférence, qui consiste à répondre à une demande de l’utilisateur, comme un prompt sur ChatGPT ou une instruction sur Copilot. Jusqu’à présent, NVIDIA a été leader grâce à ses GPU puissants, indispensables pour la formation. Cependant, l’inférence requiert un autre type de puissance : rapidité, stabilité, faible latence et efficacité énergétique.

C’est là que Groq intervient avec ses unités de traitement du langage (LPU), des chips conçus dès le départ pour répondre en temps record, sans nécessiter un déploiement matériel massif. Leur proposition ne consiste pas à rivaliser dans les laboratoires, mais à répondre aux besoins quotidiens de millions d’utilisateurs. Et l’Europe représente leur prochain grand défi.

Pourquoi la Finlande ? Parce qu’elle offre une énergie propre, un climat favorable au refroidissement, et surtout une position stratégique pour fournir des services à des entreprises et administrations européennes exigeant rapidité et conformité réglementaire. D’après la société, le centre de données de Helsinki sera opérationnel avec une « latence ultra-faible, une efficacité énergétique et une conformité à la souveraineté numérique », utilisant une infrastructure existante sans avoir besoin de construire un nouveau campus à partir de zéro.

Selon Groq, le déploiement à Helsinki s’est effectué en quelques semaines, avec une capacité d’expansion rapide. « Nous avons construit un réseau mondial qui traite déjà plus de 20 millions de tokens par seconde, et cette expansion nous permet de nous rapprocher des clients européens sans compromettre la vitesse », a déclaré la société dans un communiqué officiel.

Ce mouvement de Groq s’inscrit dans une tendance plus large. Selon McKinsey, le marché du matériel pour l’inférence devrait doubler celui de la formation en centres de données dans les années à venir. Barclays anticipe même que dans seulement deux ans, les principaux acteurs du secteur dépenseront plus en chips d’inférence qu’en formation. La conséquence potentielle ? NVIDIA pourrait voir s’échapper jusqu’à 200 milliards de dollars de parts de marché.

De son côté, Groq ne cherche pas à concurrencer en construisant les modèles les plus grands. Son pari : lorsque l’IA sera intégrée dans tous les appareils et processus, la priorité sera la rapidité d’exécution et la consommation énergétique maîtrisée. Son puce LPU, basé sur un traitement déterministe et ne nécessitant pas de mémoire HBM, lui confère un avantage différenciateur.

En cette période où les entreprises s’interrogent non seulement sur ce que l’IA peut faire, mais aussi sur le coût de son utilisation à grande échelle, Groq se positionne comme une alternative réaliste face à une consommation énergétique et une puissance de calcul en constante augmentation.

De plus, en ne dépendant pas de GPU traditionnels, la société peut éviter certains goulets d’étranglement dans la chaîne d’approvisionnement, réduire les coûts et déployer ses solutions dans des régions soumises à des réglementations strictes, comme l’Union Européenne. Son arrivée en Europe ne constitue pas seulement une expansion ; c’est une déclaration d’intentions.

Bien que Groq ne bénéficie pas encore du même renom que NVIDIA, elle s’impose comme un acteur disruptif dans le domaine de l’IA pratique. Sa stratégie est claire : ne pas tout remplacer, mais se spécialiser dans ce qui est à venir. Si l’utilisation quotidienne de l’IA continue de croître comme prévu, il n’est pas improbable que, dans quelques années, lorsque quelqu’un demandera une réponse instantanée à un modèle de IA, cette réponse ne provienne pas d’une GPU NVIDIA, mais d’une LPU de Groq.

le dernier