OpenAI atteint un million de GPU et vise plus : la faim infinie de calcul à l’ère de l’intelligence artificielle

Sam Altman prédit l'arrivée de la superintelligence artificielle dans quelques années.

OpenAI s’apprête à transformer la civilisation numérique, selon son directeur général Sam Altman. Lors d’une récente annonce, il a déclaré que la société dépasserait un million de GPU en fonctionnement d’ici la fin 2025 — un exploit impressionnant, dont il a partagé la nouvelle avec une pointe d’humour et beaucoup d’ambition : « Très fier de l’équipe, mais il faut maintenant voir comment multiplier cela par 100, lol. »

Dans l’univers d’Altman et d’OpenAI, rien n’est laissé au hasard. La startup, à l’origine de ChatGPT, se positionne aujourd’hui comme la plus grande puissance de calcul au monde, avec une infrastructure qui redéfinit ce que peut atteindre une entreprise technologique. Ce déploiement massif soulève également des questions essentielles sur la consommation d’énergie, la gouvernance digitale et le pouvoir concentré entre les mains de ces géants.

Pour mieux saisir l’ampleur de cette course à la suprématie informatique, il faut comprendre que, dans ce domaine, la GPU — composant clé pour l’entraînement des intelligences artificielles telles que GPT-4, DALL·E ou Codex — est la pièce maîtresse. Tandis que des concurrents comme xAI d’Elon Musk ne disposent « que » d’environ 200 000 GPUs, OpenAI s’apprête à en ajouter cinq fois plus, préparant ainsi un saut quantique.

Ce changement de paradigme ne résulte pas seulement d’un meilleur algorithme, mais surtout d’un matériel plus puissant. Au début de 2023, Altman avait déjà évoqué un ralentissement dans le déploiement de GPT-4.5, faute de GPU. Depuis, la société a lancé une expansion hors norme : nouveaux centres de données, alliances stratégiques avec Microsoft, Oracle, potentiellement Google, et une logistique qui évoque une infrastructure nationale plus que le développement d’une simple entreprise.

L’un des projets phares est son gigantesque centre de données au Texas, déjà le plus grand au monde dédié à l’intelligence artificielle. Consommant 300 mégawatts, il vise 1 gigawatt d’ici 2026, suffisamment pour alimenter une ville entière. Cet accroissement de la consommation inquiète déjà les opérateurs locaux, qui soulignent les défis techniques liés à la stabilisation d’un tel réseau.

Une telle infrastructure équivaut à une industrie lourde en termes d’énergie, avec une empreinte carbone conséquente et un impact sur les infrastructures publiques qui ne peut être ignoré. L’équation de la croissance rapide de la puissance de calcul questionne la durabilité de ce modèle.

Quant à la vision à long terme, Altman a osé évoquer la possibilité d’atteindre 100 millions de GPU, une perspective qui semble folle. Ce calcul coûterait environ 3 000 milliards de dollars en hardware seul. Mais l’enjeu ne se limite pas à l’accumulation de matériel : OpenAI explore des solutions innovantes, comme des puces personnalisées, des architectures plus efficaces, ou encore le stockage optique et le silicium photonique pour évoluer sans faire exploser la consommation énergétique.

Ce contexte place la capacité de calcul au cœur de la compétition mondiale. Outre OpenAI, des entreprises comme Google, Meta, Amazon et Apple développent leurs propres puces et infrastructures. La guerre pour le contrôle de l’énergie, des matériaux et du savoir-faire en matière de silicium devient stratégique.

Cependant, cette course fulgurante soulève aussi des inquiétudes quant à son impact social et environnemental. Qui régulera ces ressources ? Que se passe-t-il si une seule entité détient une capacité de calcul surpassant celle de nombreux pays ? La transparence, la régulation et l’accès équitable restent des enjeux cruciaux.

En somme, la déclaration de Sam Altman marque le début d’une nouvelle phase où la puissance technologique repose avant tout sur l’infrastructure, transformant la capacité de calcul en un véritable pouvoir. La question essentielle ne sera plus seulement de savoir si nous pouvons construire une intelligence artificielle plus avancée, mais si nous pouvons — et devons — en garantir une utilisation durable.

— Source : Noticias inteligencia artificial

le dernier