Le marché des GPU en tant que service connaît une croissance exponentielle, avec des plateformes comme Spheron Network qui promettent de bouleverser la domination des géants du cloud en proposant des prix plus abordables et une infrastructure décentralisée. Alors que les dépenses mondiales en informatique en nuage devraient atteindre 1,35 milliard de dollars d’ici 2027, l’utilisation de solutions cloud continue d’augmenter, notamment avec la location de GPU pour répondre à la demande croissante en intelligence artificielle, apprentissage automatique et calcul haute performance (HPC).
Selon les prévisions, le marché des GPU en tant que service, estimé à 3,23 milliards de dollars en 2023, pourrait atteindre près de 50 milliards en 2032. Ce développement rapide est alimenté par le besoin d’entraîner des modèles IA, de traiter d’importants volumes de données et d’exécuter des charges de calcul intensives. Cependant, la question se pose : la location de GPU dans le cloud est-elle réellement rentable ?
La location de GPU dans le cloud peut s’avérer judicieuse pour des projets courts, des pics de demande, des tests ou pour éviter un investissement initial dans du matériel. Elle offre également l’avantage de réduire la charge de maintenance, puisque ce sont les fournisseurs qui se chargent de la mise à jour, de la sécurité et du refroidissement. En outre, elle permet une démocratisation de l’accès : petites entreprises, startups et équipes de recherche peuvent accéder à des GPU haut de gamme sans coûts initiaux importants.
Mais au-delà du tarif horaire, le coût réel de la location comporte des variables à surveiller : le mode de facturation (à la demande, réservé ou bare-metal), le type de GPU choisi (de la NVIDIA H100 aux modèles plus anciens comme la V100), ainsi que des coûts additionnels pour le stockage, la transfert de données, la maintenance ou la mise à l’échelle. Un piège fréquent consiste à laisser des instances actives inutilement, ce qui peut augmenter la facture de manière significative.
Un exemple concret illustre également cette variabilité économique : entraîner un modèle de vision par ordinateur pendant 30 jours avec 8 GPU NVIDIA V100. Les coûts pour une infrastructure sur site varient entre 109 700 et 134 700 dollars, incluant le matériel, la refroidissement, les licences, etc., contre des coûts d’environ 21 600 dollars par mois en location via des fournisseurs comme Google ou Amazon. Notamment, Spheron Network propose un tarif extrêmement compétitif, à seulement 576 dollars pour la même charge, soit jusqu’à 47 fois moins cher que Google, tout en intégrant tous les coûts liés à l’énergie, la maintenance, etc.
Ce qui distingue Spheron, c’est son modèle décentralisé basé sur le réseau Fizz Node, qui regroupe ressources globales : plus de 10 300 GPU, 767 400 cœurs CPU, 35 200 puces Apple Silicon, avec une capacité de 1,6 pétaoctets de RAM répartis sur 175 régions dans le monde. La plateforme propose une facturation transparente, à partir de 0,04 $ par heure pour une GPU moins puissante, jusqu’à 0,19 $ pour une RTX 4090. La facilité de déploiement, l’optimisation pour l’intelligence artificielle et le Web3, ainsi que la compétition entre fournisseurs garantissent son attrait pour les utilisateurs cherchant flexibilité et économies.
Par exemple, la location d’une RTX 4090 peut coûter aussi peu que 223 dollars par mois via Spheron, en comparaison avec d’autres fournisseurs qui facturent jusqu’à 612 dollars pour la même durée. Spheron offre également un catalogue varié de plus de 40 GPU, adapté à différents besoins et budgets, allant de la GTX 1650 à la RTX 6000 ADA.
En définitive, le choix entre cloud traditionnel, infrastructure locale ou solutions décentralisées comme Spheron dépend des contraintes du projet, des ressources financières, de la scalabilité nécessaire et du risque technologique accepté. Pour de nombreux projets d’IA, la solution la plus efficace se trouve peut-être dans cette nouvelle architecture décentralisée, qui allie efficacité, accessibilité et contrôle. La révolution du calcul n’est plus uniquement dans les mains des hyperscalers, mais aussi dans celles de réseaux communautaires, où la GPU du futur pourrait bien se situer… dans la « cloud » de tous.
La bataille contre la Shadow AI : comment les startups de l’écosystème Intel cherchent à assurer l’avenir de l’intelligence artificielle