Dans un mouvement inattendu, Elon Musk a ordonné à Nvidia d’envoyer des milliers de GPU, initialement réservés pour Tesla, à ses projets X et xAI. Selon des courriels internes de Nvidia examinés par CNBC, cette décision a provoqué une controverse au sein de l’entreprise technologique, avec des employés soulignant que les commentaires de Musk concernant l’investissement dans les GPU pendant l’appel de résultats du premier trimestre « entrent en conflit avec les réservations ».
Nvidia a refusé de commenter à ce sujet, tandis que Musk n’a pas répondu aux demandes de commentaires. Cependant, chez X (anciennement Twitter), Musk a expliqué que « Tesla n’avait pas d’endroit où envoyer les puces de Nvidia pour les activer, donc elles seraient restées dans un entrepôt. L’extension sud de Giga Texas est presque terminée. Cela abritera 50 000 H100 pour l’entraînement du FSD (Full Self-Driving). »
Lors de l’appel de résultats en avril, Musk a déclaré que Tesla opérait actuellement 35 000 GPU H100 et espérait augmenter ce nombre à 85 000 d’ici à la fin de l’année. Quelques jours plus tard, chez X, il a mentionné que Tesla dépenserait 10 milliards de dollars cette année en « entraînement et inférence IA combinés ».
Toutefois, les mémos de Nvidia ont indiqué que ces déclarations ne correspondaient pas à ce qu’ils avaient vendu à Tesla. Au lieu de cela, l’entreprise a réorienté des réservations de plus de 500 millions de dollars en GPU vers X.
« Elon priorise le déploiement du cluster de GPU H100 chez X plutôt que chez Tesla, redirigeant 12 000 GPU H100 initialement envoyés pour Tesla vers X », indiquait un mémo de Nvidia de décembre.
« En échange, les commandes originales de X de 12 000 H100 prévues pour janvier et juin seront redirigées vers Tesla. »
Un autre courriel, postérieur à l’appel de résultats, mentionnait que le chiffre de 10 milliards de dollars « entre en conflit avec les réservations et les prévisions de l’année fiscale 2025 », et faisait référence à de drastiques réductions d’emplois dans l’entreprise de véhicules électriques, ce qui pourrait retarder encore davantage le supercalculateur basé sur les H100 à la Gigafactory du Texas.
Musk a affirmé que la conduite autonome était essentielle pour l’avenir de Tesla, mais pour y parvenir, des capacités énormes de GPU seraient nécessaires. Ces décisions pourraient ralentir cette transition, bien qu’elles pourraient aider au flux de trésorerie à court terme tandis que les finances de l’entreprise continuent de lutter.
Le célèbre PDG essaie également de convaincre les actionnaires de rétablir le plus gros paquet de récompenses exécutives de l’histoire des entreprises, un accord de compensation de 56 milliards de dollars qui a été annulé par un juge du Delaware. S’il était rétabli, Musk détiendrait une part de 20,5 % dans Tesla. Sinon, il a mentionné qu’il « préfèrerait construire des produits en dehors de Tesla. »
Musk a également exprimé précédemment son malaise à l’idée de faire croître Tesla pour être un leader en IA et en robotique sans avoir environ 25 % de contrôle des votes. Assez pour être influent, mais pas assez pour ne pas pouvoir être révoqué. »
Plusieurs chercheurs en IA ont quitté Tesla pour rejoindre xAI.
Dans une publication sur X après le rapport de CNBC, Musk a clarifié : « Des environ 10 milliards de dollars de dépenses liées à l’IA que j’ai dit que Tesla ferait cette année, environ la moitié est interne, principalement l’ordinateur d’inférence IA conçu par Tesla et les capteurs présents sur tous nos véhicules, ainsi que Dojo. Pour construire les superclusters d’entraînement IA, le matériel Nvidia représente environ les 2/3 des coûts. Mon estimation actuelle la plus précise des achats de Nvidia par Tesla est de 3 à 4 milliards de dollars cette année. »
Cette semaine, Musk a également affirmé que xAI déploierait un superordinateur de 300 000 GPU B200 pour l’été prochain et ouvrirait un centre de donnéesUn centre de données ou centre de traitement de données (CTD) … avec 100 000 GPU H100 bientôt. Aucun de ces projets n’a été vérifié de manière indépendante.
On croit que xAI loue actuellement environ 16 000 GPU H100 de Nvidia à Oracle Cloud, en plus d’utiliser Amazon Web Services et la capacité excédentaire dans les centres de données de X.