La conversation publique sur l’Intelligence Artificielle se limite souvent à ce qui est visible : des modèles qui écrivent, créent des images ou programment. Mais en coulisses, dans la salle des machines, la véritable discussion tourne autour d’un enjeu crucial : quelle GPU acheter, louer ou déployer pour faire fonctionner tout cela sans faire exploser les coûts, sans augmenter la latence de façon insupportable, et sans limiter les performances par un goulet d’étranglement inattendu.
Dans ce domaine, trois noms reviennent systématiquement dans tout projet sérieux : NVIDIA A100, NVIDIA H100 et NVIDIA H200. À première vue, ils composent une escalade logique de puissance. En pratique, le choix est plus compliqué : ce n’est pas toujours la GPU « la plus récente » qui l’emporte, car ce qui compte, ce n’est pas le marketing, mais la nature de la charge (entraînement, inférence, taille du modèle, contexte long, parallélisme, etc.).
Ce qui fait varier la donne, c’est que ces GPUs ne se différencient pas uniquement par leur rapidité. Dans le monde réel, la performance dépend souvent de trois facteurs en compétition :
- Cálcul (la « force brute » pour les multiplications/matrices).
- Mémoire (capacité de VRAM et surtout, la bande passante).
- Interconnexion (comment l’échelle se déploie quand plusieurs GPU doivent travailler ensemble).
Le point clé : le goulet d’étranglement n’est pas toujours là où on le croit
Pour comprendre pourquoi la A100, la H100 et la H200 peuvent offrir des performances tellement différentes, voici une traduction simple en langage courant :
- Si le travail est limité par le calcul, la GPU est comme une cuisine : plus de « brûleurs » et un moteur plus puissant permettent de cuisiner plus vite.
- Si le travail est limité par la mémoire, la GPU est comme un entrepôt avec une rampe de chargement : peu importe la taille de la cuisine, si les ingrédients arrivent en retard ou ne peuvent pas entrer, c’est un problème.
Dans les grands modèles (LLM), notamment en inférence, le système peut passer plus de temps à déplacer les poids et activations depuis la mémoire qu’à effectuer des calculs directs. C’est pourquoi deux GPUs aux capacités de calcul similaires peuvent donner des performances très différentes si l’une dispose d’une bande passante plus large ou de beaucoup plus de VRAM.
Les spécifications essentielles, sans se perdre dans la fiche technique
Une comparaison synthétique résume bien la progression générationnelle : A100 reste une référence solide, H100 affiche une montée en puissance spectaculaire avec de nouvelles capacités, et H200 conserve la base de H100 tout en poussant fort la mémoire.
Résumé (valeurs typiques pour plates-formes serveur) :
| GPU | Mémoire | Type de mémoire | Bande passante approx. | NVLink (approx.) |
|---|---|---|---|---|
| NVIDIA A100 | 80 GB | HBM2e | 2,0 TB/s | 600 GB/s |
| NVIDIA H100 | 80 GB | HBM3 | 3,35 TB/s | 900 GB/s |
| NVIDIA H200 | 141 GB | HBM3e | 4,8 TB/s | 900 GB/s |
Ces chiffres ne sont pas de la décoration : ils expliquent pourquoi une GPU peut suffire pour un modèle de 8 milliards de paramètres, mais rencontrer des limitations avec un modèle de 70 milliards lorsque un contexte long, beaucoup de parallélisme ou un cache KV massif sont requis.
A100 : la vétérante qui continue de « tenir la route » (à condition de ne pas lui demander des miracles)
Depuis des années, l’A100 est le cheval de bataille de l’IA pour une raison simple : l’équilibre. Dans de nombreux scénarios d’inférence ou d’entraînement modéré, elle reste parfaitement adaptée, surtout si le modèle tient confortablement dans la VRAM et si l’on n’exige pas un bande passante extrême.
Mais le monde a changé : les grands modèles actuels (LLM) et leurs déploiements (RAG, contextes longs, agents, gros lots, faible latence) tendent à accentuer les limitations de mémoire et de bande passante. Dans ces cas, l’A100 ne « faillit » pas, mais elle laisse sur la table un peu de rendement.
H100 : le saut qui ne se limite pas à la vitesse, mais change la manière de courir
H100 n’est pas simplement une « A100 plus rapide ». Son atout réside dans sa conception destinée à exploiter au maximum les charges modernes, en particulier les transformers, et dans une innovation qui fait toute la différence en environnement réel : FP8 et son écosystème.
En termes simples : FP8 permet de réduire le coût de déplacement des données et d’augmenter le rendement dans certains scénarios, mais ce n’est pas de la magie. Cela nécessite un logiciel et des flux de travail conçus pour en tirer parti, ce que tous les projets ne veulent pas ou ne peuvent pas faire — changer la précision, calibrer, quantifier ou faire des compromis.
Pour ceux qui peuvent en bénéficier, H100 devient souvent le « point optimal » : performances élevées, large disponibilité dans l’infrastructure et une nette amélioration par rapport à l’A100.
H200 : la « H100 avec des stéroïdes » en mémoire (et cette phrase résume presque tout)
Voici la subtilité que beaucoup négligent : H200 n’est pas une refonte radicale de l’architecture par rapport à H100 ; l’essentiel réside dans la mémoire : plus grande capacité et bande passante renforcée.
Quels en sont les impacts ?
- Grands modèles que la VRAM limitée obligerait à répartir sur plusieurs H100.
- Contextes longs (16K, 32K ou plus) où le cache KV prend de la place et limite la mémoire disponible.
- Concurrence accrue sans dégrader la latence de façon significative.
- Moins de complexité : si vous avez moins besoin de GPUs, vous réduisez la synchronisation, la communication et les points de défaillance.
Ceci revient à dire : H200 est idéal lorsque le problème n’est pas le calcul, mais le placement et le mouvement des données.
La grande question : quand choisir H200 et quand rester sur H100 ?
Dans le monde réel, la décision se résout souvent en répondant honnêtement à trois questions :
- Votre modèle tient-il « bien » dans 80 GB avec un peu de marge pour le cache KV et les activations ?
Si oui, l’H100 est généralement la solution la plus rationnelle. - Allez-vous déployer des contextes longs ou charger beaucoup de parallèle ?
Si oui, le H200 commence à justifier son coût. - Votre déploiement nécessite-t-il beaucoup de GPU uniquement pour la mémoire (et pas pour le calcul) ?
Si la réponse est oui, le H200 peut être plus économique en coût total, car il simplifie le parallélisme et réduit le nombre de GPU nécessaires.
Ce dernier point explique que, dans certains cas, ce n’est pas « H200 est cher », mais « H200 évite d’avoir à utiliser deux fois plus de H100 ».
La réflexion de fond : l’IA pousse le hardware vers de nouvelles limites
Ce débat n’est pas une lubie d’ingénieurs. C’est un signe de l’époque : l’IA transforme radicalement l’infrastructure, où le « meilleur chip » à lui seul ne suffit plus. La mémoire, la consommation, la gestion thermique, la disponibilité et le coût opérationnel deviennent autant de critères cruciaux.
Par conséquent, la comparaison entre A100, H100 et H200 ne se résout pas par un simple classement. Elle se clarifie avec une idée plus exigeante mais plus utile : choisissez la GPU qui cible votre vrai point faible, pas celle qui porte le nom la plus récente.
Questions fréquentes
Quelle GPU privilégier pour l’inférence avec des LLM à contexte long (16K ou plus) ?
Lorsque le contexte s’allonge, le cache KV consomme beaucoup de VRAM. Dans ces cas, le H200 a souvent l’avantage grâce à ses 141 GB et sa bande passante plus large, ce qui réduit le risque de manquer de mémoire ou de devoir limiter la concurrence.
Quelle différence pratique entre HBM3 et HBM3e en IA ?
Au-delà du nom, l’important est que HBM3e offre généralement plus de bande passante et, selon la configuration, plus de capacité. Cela se voit particulièrement lors de l’inférence sur de grands modèles, où le déplacement des données influence directement le nombre de tokens par seconde.
Qu’est-ce que le FP8 et pourquoi est-il si associé à la H100/H200 ?
FP8 est un format de moindre précision qui permet d’accroître le rendement et l’efficacité dans les charges compatibles. La H100 et la H200 reposent sur un logiciel spécialisé (comme Transformer Engine) pour rendre cela viable en environnement réel.
La A100 reste-t-elle une bonne option en 2026 ?
Oui, si votre modèle et votre cas d’usage ne sont pas limités par la mémoire ou la bande passante. Pour l’inférence de modèles modérés ou des charges où le coût reste une priorité et la performance suffit, l’A100 peut continuer à faire l’affaire.