Le redimensionnement d’image n’est plus une option “supplémentaire” dans le gaming sur PC moderne : il est devenu une composante essentielle des performances, surtout lors des grands lancements. Des technologies telles que DLSS (NVIDIA) et FSR (AMD) apparaissent désormais quasi systématiquement dans les jeux AAA — et de plus en plus dans les jeux AA ou indépendants — car elles permettent de maintenir des résolutions élevées et des taux de rafraîchissement importants sans trop solliciter la GPU à chaque image.
Le problème, c’est que cette “délégation” de la charge graphique peut déplacer la pression vers un autre composant clé : le CPU.
Le raisonnement est simple. Lorsqu’un système de redimensionnement est activé, la GPU opère avec une résolution interne inférieure à celle de sortie. Cela réduit le temps de rendu par image et permet d’obtenir un plus grand nombre de frames par seconde. Mais pour que cette cadences soit maintenue, la GPU doit recevoir rapidement des instructions de la part du CPU (draw calls, logique du jeu, physique, streaming d’actifs, etc.). Si le CPU ne suit pas, la situation change brutalement : la GPU cesse d’être le facteur limitant, et le rendement ne dépend plus que du processeur, même si l’on joue en 1440p ou en 4K sur l’écran.
Cela remet en question une idée répandue : “au-delà de 1440p, le processeur n’a plus d’impact”. En contexte native 4K, de nombreux jeux ont une charge principalement GPU, avec peu de différences selon les CPU. Cependant, l’analyse de ces tests rappelle qu’à l’ère du redimensionnement, le 4K natif n’est pas nécessairement la norme de jeu majoritaire. Et dès que la résolution interne diminue suffisamment, le CPU reprend sa place en tant que facteur limitant en termes de performance.
Pourquoi le DLSS peut “dégarnir” votre jeu jusqu’à des résolutions inférieures à 1080p sans que vous vous en rendiez compte
La clé réside dans le pourcentage de rendu interne. En mode Quality de DLSS, l’échelle de rendu est autour de 66,7 %, tandis qu’en Performance elle tombe à 50 %. Cela n’impacte pas seulement le nombre de frames final mais aussi la charge supportée par le système.
Voici une illustration claire du saut de résolution interne :
- Avec une sortie 3840×2160 (4K), DLSS Quality rend à 2560×1440, et DLSS Performance à 1920×1080.
- Avec une sortie 2560×1440, DLSS Quality tombe à 1706×960, et DLSS Performance à 1280×720.
- Avec une sortie 1920×1080, DLSS Performance peut atteindre une résolution interne de 960×540.
En pratique, jouer “en 1440p avec DLSS” peut signifier que la GPU traite en réalité à quelque chose comme 720p, ce qui permet d’accroître considérablement le nombre de fps — jusqu’à ce que la CPU devienne le nouveau goulot d’étranglement.
Objectif de l’analyse : à quel moment le “scaling CPU” lié au DLSS disparaît-il ?
Au lieu de se cantonner au cas évident — le goulot d’étranglement CPU à très basse résolution interne —, la question porte sur une problématique plus subtile : quand, en augmentant la résolution de sortie avec DLSS activé, la différence de performance entre CPU diminue-t-elle à tel point qu’elle devient quasi inexistante ? Autrement dit, à quel moment le redimensionnement recentre le rôle de la GPU comme limite principale, rendant les upgrades CPU presque insignifiants en termes de fps ?
Pour répondre, les tests sont conçus pour créer d’abord des scénarios clairement GPU-limites, puis observer à partir de quand les différences CPU deviennent à nouveau notables lors de l’activation de DLSS.
Plateforme de test : une RTX 4080 Super et quatre CPU pour évaluer l’effet
La plateforme utilisée pour ces tests comprend une RTX 4080 Super et plusieurs CPU Intel et AMD :
- Intel Core i5-14400
- Intel Core i7-14700K
- AMD Ryzen 5 9600X
- AMD Ryzen 5 9850X3D
Les composants complémentaires incluent une carte mère MSI MPG Z790 Carbon Wi-Fi (LGA1700), une MSI MPG X870E Carbon Wi-Fi (AM5), un refroidissement liquide Corsair iCUE Link H150i Elite Cappalix, un stockage de 2 To Sabrent Rocket 4 Plus, 32 Go de mémoire DDR5-6000 (2×16 Go), et une alimentation MSI MPG A1000GS. Les jeux sont testés en réglages High/Ultra.
Pour cibler l’essentiel, l’analyse se concentre sur deux modes de DLSS “standards” : Quality (66,7 %) et Performance (50 %). Le mode Ultra Performance n’est pas systématiquement présent ni prioritaires dans cette étude, et est laissé de côté.
DLSS n’est pas un seul modèle : versions, presets et l’évolution vers les modèles Transformer
Un autre point important concerne la variabilité selon la version de DLSS et le preset choisi par le développeur, qui influence la qualité finale et la charge en calcul :
- Cyberpunk 2077 : DLSS v3.10.1.0, Preset J
- Doom : The Dark Ages : DLSS v3.10.2.1, Preset K
- Flight Simulator 2024 : DLSS v3.10.1.0, Preset E
- Marvel’s Spider-Man 2 : DLSS v3.10.1.0, Preset J
- The Last of Us Part One : DLSS v3.1.2, Preset A
En général, les presets A–F utilisent l’ancienne architecture CNN (réseau neuronal convolutif), tandis que les presets J et K font appel à la première itération du modèle Transformer. Ce dernier tend à fournir une meilleure qualité visuelle, au prix d’une charge de calcul plus élevée. Preset K est décrit comme plus stable mais moins précis, alors que Preset J privilégie la netteté au détriment de la stabilité.
Il est aussi noté que DLSS 4.5 (deuxième génération Transformer) exploite des instructions FP8, non supportées par les GPU RTX 20 et RTX 30 dans leurs Tensor Cores, ce qui peut entraîner une performance réduite avec certains presets plus récents, comme L ou M. Pour éviter de fausser l’analyse, il a été décidé de respecter les réglages par défaut dans chaque jeu.
Ce que doit savoir le joueur : le CPU retrouve une place centrale quand on vise beaucoup de fps
Le message clé n’est pas que le redimensionnement est “mauvais”, mais plutôt que son impact modifie la dynamique de performance d’un PC. Le DLSS peut transformer un scénario initialement limité par la GPU en un scénario où le processeur devient le nouveau goulot d’étranglement, et où upgrader le CPU permet d’augmenter réellement le nombre de fps.
Trois situations classiques illustrent cette transition :
- Moniteurs à haute fréquence de rafraîchissement (120/144/240 Hz), où chaque image supplémentaire exige davantage du CPU.
- DLSS Performance ou redimensionnements agressifs, qui réduisent la résolution interne à un niveau où la GPU n’est plus le composant limitant.
- Jeux très gourmands en CPU (simulation, mondes ouverts complexes, streaming intensif, IA des NPCs), où la capacité maximale est souvent imposée par le thread principal.
En pratique, cela remet en question l’adage “pour du 4K, la CPU n’a pas d’impact”. Certes, c’est souvent vrai en 4K natif, mais cela cesse d’être le cas lorsque le rendu interne se limite à 1080p. Le redimensionnement augmente non seulement la fluidité mais peut aussi révéler une limite jusque-là dissimulée.
Questions fréquentes
Pourquoi le DLSS peut-il augmenter le goulot d’étranglement CPU en jeux en 1440p ou 4K ?
Parce qu’il réduit la résolution interne, ce qui implique que la GPU, plus rapide, doit recevoir davantage d’instructions de la CPU pour maintenir le même nombre de fps.
Quel mode de DLSS engendre généralement plus de limitation par CPU : Quality ou Performance ?
En général, Performance est plus lourd pour la GPU, mais comme il rend en interne à une résolution plus basse, il peut aussi renforcer la limite liée au CPU en réduisant la charge sur la carte graphique.
Comment détecter si votre performance est limitée par le CPU avec DLSS activé ?
Un signe classique est un usage de GPU faible ou irrégulier alors que les fps stagnent ou plafonnent, accompagnés par des pics de charge sur un ou deux cœurs CPU. Si réduire la résolution interne ne fait pas augmenter le fps, c’est probablement limitant au niveau du processeur.
Les différentes versions et presets de DLSS influencent-ils aussi la performance, au-delà des options Quality ou Performance ?
Oui, car chaque combinaison (version, preset) modifie la charge en calcul, certains étant plus précis mais plus coûteux, d’autres privilégiant la stabilité ou la vitesse pour atteindre un rendu spécifique.
Source : tomshardware
Le milliard de dollars exigé par l’IA : comment sont financés les nouveaux centres de données