Tandis qu’Apple ou Samsung proposent des smartphones à des prix dépassant les 1 200 euros, le tout sans trembler des genoux, cette folle escalade des prix a fait des émules en dehors du monde de la téléphonie.Prenez Nvidia par exemple. Le fondeur américain, qui ne demandait que 825 euros pour sa GTX 1080 Ti lors de sa sortie en 2017, réclame désormais 1 260 euros pour sa RTX 2080 Ti, figure de proue de sa nouvelle génération de carte graphique.
Au regard de ce tarif, on est en droit de se demander si la RTX 2080 Ti, voulue comme l’une des, si ce n’est la, meilleures cartes graphiques du moment parvient à justifier un tel coût. D’autant que 27 mois après sa sortie, la gamme GTX (et la 1080 Ti en tête, que, hasard du calendrier, nous testions il y a un an pile) fait encore montre de performances tout à fait honorables, pour ne pas dire excellentes.
Surclassement
Allez, quoi de mieux qu’un petit tunnel de chiffre pour démarrer, puisque l’on va s’intéresser à ce que la RTX 2080 Ti à dans le ventre. Là où ses prédécesseurs misaient sur une architecture Pascal, la nouvelle égérie de Nvidia, comme toutes les cartes de la cuvée RTX, repose sur la nouvelle architecture Turing. Cette dernière ne se contente pas d’offrir une nouvelle répartition des unités de calcul : elle améliore également les niveaux de cache et signe l’arrivée des unités dédiées au fameux ray tracing et à l’IA.
Sous le capot, on déniche une puce TU12 gravée en 12 nm. Bien que 72 Streaming Multiprocessors soient de la fête, seuls 68 sont utilisés, ce qui représente un total de 4 352 coeurs CUDA (3 584 pour la 1080 Ti), 544 coeurs Tensor (IA), 68 unités ray tracing et 272 unités de textures. Cette carte atteint une fréquence de base de 1 350 MHz, ce qui est inférieur à celle de la 1080 Ti (1 480 MHz). La fréquence Boost, elle, est en revanche meilleure avec un résultat oscillant entre 1 545 et 1 635 MHz.
À l’instar de son aînée, la RTX 2080 Ti embarque 11 Go de mémoire vidéo. Cependant, cette dernière abandonne la GDDR5X au profit de la nouvelle GDDR6, qui confère un meilleur débit à la carte. Ainsi, si le bus mémoire reste inchangé avec 352 bits, la bande-passante s’envole à 616 Go/s contre 484 Go/s pour la 1080 Ti. Ces performances musclées ont cependant un impact sur la consommation électrique. Annoncée entre 250 et 260 Watts par Nvidia, la consommation de la 2080 Ti a plutôt oscillé entre 275 et 290 Watts lors des tests en conditions réelles.
Quant au bruit, Nvidia a réussi à rendre sa RTX 2080 Ti assez discrète, aussi bien en jeu que lors d’un usage normal. Sachez toutefois que les ventilateurs ne se coupent pas, même si la carte est au repos.
La 4K en 60 fps devient une réalité
Attaquons le coeur de cette prise en main : les performances en jeu. Nous avons opté pour une configuration reposant sur une carte mère Asus Z170 Pro Gaming, un processeur Intel Core i7-6700K 4 coeurs 4GHz, 16 Go de RAM DDR4 G-Skills RipJaws, un SSD de 250 Go, et un disque dur de 2 To. Quant à l’écran, il s’agit d’un Acer Predator XB281HK.
Première étape, 3DMark Time Spy. Notre configuration affiche un score total de 11 056 (avec un score graphique de 13 898) ce qui représente un gain de 35% par rapport à la 1080 Ti (respectivement 8 194 et 9 142).
Pour ce qui est des jeux, notre choix s’est d’abord porté sur PlayerUnknown’s BattleGrounds, Hitman 2 et The Witcher 3. Et on ne va pas vous le cacher plus longtemps : le rêve devoir tourner des AAA en 4K à 60 fps, s’est matérialisé devant nous. Ainsi, tous les potards graphiques poussés au maximum, PUBG affiche sans sourciller une moyenne de 115 fps, The Witcher 3 peut se targuer d’une confortable moyenne de 70 fps. Quant à Hitman 2, il s’est maintenu la plupart du temps à 66-67 fps, avec cependant des chutes à 45 fps.
Vous vous souvenez des unités Tensor mentionnées plus tôt ? Elles s’occupent, notamment, de gérer la DLSS (Deep Learning Super Sampling), le nouveau système anti-crénelage mis en avant par Nvidia pour réduire la consommation des ressources. Jusqu’à présent, seuls une poignée de jeux est compatible avec la DLSS, dont Final Fantasy XV. Mais une fois activé, le résultat est là : un gain de fps avoisinant les 25%. Avec un anticrénelage standard, FFXV tournait en moyenne à 48 fps. Avec le DLSS, qui ajoute un effet de flou mais affine les lignes, le compteur d’images atteint le 60 fps sans broncher.
Reste le ray tracingi (DRX), l’autre point fort avancé par Nvidia. Pour le moment, Battlefield V ou Metro Exodus sont les seuls jeux à tirer parti de cette technologie. Le ray tracing promet, grâce à l’accélération matérielle, un rendu photoréaliste des reflets et des effets de lumières, le tout sans torpiller les performances en jeu. Enfin ça, c’est sur le papier, car dans les faits, le ray tracing de la RTX 2080 Ti souffle le chaud et le froid. En partie, les reflets sont effectivement plus beaux, plus détaillés. Les surfaces réfléchissantes affichent plus d’éléments, comme le ciel ou un joueur, et ce, quel que soit la distance. Mais on ne va pas se mentir : cela reste de la poudre au yeux.
Déjà parce que le moteur Frostbite de Battlefield V livrait une expérience graphique plus que satisfaisante sans le ray tracing. Et surtout car l’activation de cette technologie se ressent sur le framerate. Sans le DRX, Battlefield V tourne à 75 fps de moyenne. Avec le DRX, les fps chutent à une moyenne de 42, soit une baisse de 44%.
Dans le cas de Metro Exodus, le constat est aussi en demi-teinte. Ici, le ray tracing ne gère que la lumière émise par le soleil. La luminosité globale du jeu s’en trouve affecté, et devient plus réaliste. Pas question en revanche d’améliorer les reflets comme pour Battlefield V. Le DLSS, lui, agit de la même manière que pour FFXV, avec les mêmes avantages et les mêmes inconvénients. Au final, lorsque les deux options sont activées, le framerate de Metro Exodus est en moyenne de 40 FPS, contre un 60 constant en temps normal.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
6 mois plus tard…;
De toute façon on s’en tape, nos écrans hd et 1050ti suffisent largement, je laisse aux gogos le soin de vider ler porte-monnaie pour se la péter…..
Ne jamais critiquer ceux qui payent le prix fort pour avoir ce qu’on aura dans 2 ans pour pas cher. Ce sont eux qui payent la majorité de la R&D pour qu’on puisse en profiter 🙂
En faite c’que les gens ne comprennent pas c’est que ces cartes ne sont pas prévu pour nous consommateur mais plus vers les pro qui pour eux auront moins de taff à faire sur les rendu contraste/lumière ect
Qu’est ce qu’il ne faut pas lire comme connerie.
tu as raison, je suis toujours avec mon ZX spectrum couplé à ma télé cathodique en 4/3 qui me déglingue bien les yeux j’adore, récemment un mec m’a dit tu devrais acheter le spectrum + il est mieux, je lui ai dit je laisse ça au pigeon, je peux déjà tout faire avec mon ZX .
Tardif test!!!
J’ai pas non plus dit de rester sous windows 95, ça m’a l’air excessif comme réponse ! Je sous -entendais seulement que ces nouvelles cartes graphiques hors de prix ne sont que très peu exploitées aux vues de leurs capacités. Vaut-il mieux être un gogo ou un consommateur éclairé, là est la question !
J’attendais cette génération de carte graphique pour remplacer ma GTX 960 4GB par une 2080 TI.
Il y a deux choses à prendre en compte.
– Cette carte est bonne pour faire tourner du 4K 60fps
– Cette carte n’est pas assez puissante pour gérer la technologie RTX qu’elle embarque qui de toutes façons n’est pas rependu.
A mes yeux 1300 euros c’est trop cher en rapport des prestations délivres
J’ai fait le choix de dépenser 430 euros dans une 1080 TI d’occasion, j’attends maintenant la prochaine génération.