Après des mois d’attente bienvenus pour son concurrents direct (AMD) et interminables pour certains joueurs, la société offre un aperçu officiel de sa gamme. NVIDIA a souhaité mettre en avant quelques innovations inspirées d’un autre constructeur Intel tout en n’oubliant pas son coeur de métier : les chiffres.
Et puisque nous parlons de chiffres attardons nous sur les caractéristiques de la GeForce GTX 680, qui constitue désormais la réponse de NVIDIA a AMD et son étalon technologique 7970.
Des chiffres et trois lettres
Au menu donc, la GTX 680 et ses 3,54 milliards de transistor (ont vous avait dit qu’il y aurait des chiffres) gravés en 28nm.
De manière générale, plus une puce graphique embarque de transistors, plus la taille de celle ci augmentera (par rapport à son process de gravure). Avec 800 millions de transistors de moins que la Radeon HD 7970, difficile de se dire sur le papier, que la nouvelle GTX 680 puisse distancer autant la carte la plus puissante disponible à ce jour. C’est sans compter sur l’optimisation et l’expertise de NVIDIA.
Le processus de gravure en 28nm a apporté une bouffée d’air frais au fondeur puisqu’avec une puce 40% plus petite que sa devancière la GTX 580, la nouvelle GeForce haut de gamme du constructeur parvient à consommer 55 Watts de moins tout en délivrant théoriquement environ 20% de performances supplémentaires impressionnant.
L’architecture GK104 (nom en interne de la GTX 680) s’articule autour de 1,536 Cores regroupés dans des modules SMX qui font leur apparition pour la première fois. Ces modules au nombre huit comptent chacun 192 Cores. Pour comparaison, la GTX 580 compte 32 Cores même si le mécanisme d’exploitation de ces unités de calcul est différent.
Optimisations
En terme d’optimisations, NVIDIA a souhaité mettre l’accent sur le ratio performances/watts en ayant recours à différents leviers :
Le TXAA est un nouveau venu parmi les options de réglages des paramètres d’Anti-aliasing, dérivé de l’actuel technologie FXAA lui même successeur du MSAA, le TXAA est annoncé par NVIDIA comme aussi performant que le MSAA 8x tout en conservant les demandes en ressources au niveau du MSAA 2x vivement les premiers benchmarks.
En matière de consommation, il y a du mieux par rapport à la génération précédente. Alors que NVIDIA nous avait longtemps habitué au duo de connecteurs 8 Pins offrant une consommation théorique de près de 310 Watts sur la génération GTX 480, on passe à deux connecteurs 6 Pins pour une consommation maximum de 195 Watts contre 250 W pour sa rivale, la Radeon HD 7970.
GPU Boost
NVIDIA introduit une autre technologie à sa GTX 680 empruntée selon les avis à Intel ou à AMD : le GPU Boost.
Le processeur de la GTX 680 est cadencé par défaut à 1006 Mhz, la société affirme que cette fréquence peut être augmentée dynamiquement en fonction de la charge de travail et la vidéo en fin d’article vous montrera justement à quel point la gestion dynamique de la fréquence est gérée par la vitrine technologique de la firme au caméléon. Le recalcul de la charge de travail durant une session de jeu est réalisé dans un laps de temps aux alentours de 100ms, à cette vitesse et selon la vidéo, les variations de puissance ne semblent pas avoir d’impacts sur l’expérience de jeu.
Pour ne pas dépasser l’enveloppe thermique de 195 Watts, des capteurs fournissent les informations necéssaires à un logiciel et au bios de la carte afin de lui indiquer si il subsiste une marge de manoeuvre suffisante à une hausse de fréquence. Sachez cependant que cette fonctionnalité n’est pas désactivable et que NVIDIA n’a pas souhaité s’étendre sur l’ensemble des critères utilisés par le logiciel en charge de réguler la fréquence de la puce.
En résumé
Voici donc ce qu’il faut retenir de cette GTX 680 qui s’apprête à faire son apparition sur les rayons à partir d’aujourd’hui :
Processeur : GK-104 cadencé à 1006 Mhz (sans GPU Boost)
Mémoire vive : 2Go GDDR 5 bus mémoire 256 bits bande passante : 192,3 Go/s
Connecteurs d’alimentation : 2 x 6 pins
Enveloppe thermique : 195 W
Prix public conseillé : environ 500€
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
*__*
Et tout porte à croire (taille, nom, consommation) que cette puce était destinée à être le milieu de gamme. NVIDIA doit se réserver quelque chose de plus pour les prochains mois…
Entre l’actrice X de Christelle, et l’orgie de Moe, aujourd’hui c’est le journal du porn 😀
Chapeau Nvidia !
Si j’ai bien compris pas besoin de SLI.
Mais comment connecter 3 écrans s’il n’y a que 2 fiches HDMI ( à moins que ça ne soit les ports 6x) ? O.o
(je suis un amateur sur le Hardware, donc peut-être qu’une personne pourrait m’éclairer d’avantage?)
Et puis même, si l’on veux se monter son ordi, ça fait moins cher que 2 GTX580 en SLI (ou équivalentes de chez ATI, avec le crossfire, non ?)
Hâte de recevoir ma paie et de monter ma tour. :bave:
@dismiter : ben ouai le GK110 avec 2048 processeurs cudda au lieu de 1536 sur le gk104
A 500€ c’est un P****N de milieu de gamme!!! 😳
Leurs images sont abusivement truquée , chez moi en MSAA x 8 je n’ai plus aucun pixel d’aliasing et ce sur un 24″ en 1080p …
Faut qu’ils arrêtent avec leurs pub abusive et fausse pour faire croire qu’ils font des progrès dingue dans le domaine et ce pour faire passer la pilule du prix vraiment élevé …
Peut être que la 580 deviendra abordable 😥
Présent, futur, ponctuation, pronoms, conjugaisons, …
Ya encore des progrès à faire
@Mr-mezz
Et donc en disant ça tu peux en dire autant de la HD7970 non?
Parce que vous commencez tous à être reloud à ne pas comprendre que le prix d’une CG ne dépend que de ces perf, pas de son titre mdg, hdg ou thdg…
@arghoops : Je suis curieux, quand on parle de nouvelle gamme on parle de modèle genre 580 ou d’architecture genre Kepler ?
Donc la 680 est une Milieu de gamme pour la gamme Kepler (Ou le vrai nom de cette nouvelle gamme)? 😕
:BAVE: si seulement j’avais pas acheté mon pc la semaine dernière -_- je vais le rendre et m’en faire un dès sa sortie!!
@dismuter:
tu as tout a fait raison, ceci n’est pas le haut de gamme de nvidia, on devrait s’attendre a voir le GK110 d’ici la fin de l’année.
voici un tres bon test pour ceux qui veulent en savoir plus:
http://www.hardware.fr/articles/857-1/nvidia-geforce-gtx-680-test.html
@µ$
Donc pour toi la HD7970 c’est pas le hdg ATI?
Le prix de la HD7970 est environ 500€, il me paraît normal que la GTX680 qui est un peu plus perf soit un peu plus chère non?
Et vu que la HD7970 est le hdg ATI, on peut conclure que la GTX680 est le hdg NVidia.
Après si des cartes plus puissantes sortent elles feront parties du très haut de gamme (thdg).
le thdg c’est les bi-GPU
Et le bruit dans tout ça ? Ma GTX480 quand elle s’excite j’ai l’impression d’être à bord d’un avion.
Très bonne carte, mais pas encore dans mes moyen j’attendrai la 670gtx pour changé ma Gainward GTX 570 Goes Like Hell fraichement acquis qui est une bonne carte mais un peu bruyante !
arghoops
22 mar, 2012, 16:55 #10
@Mr-mezz
Et donc en disant ça tu peux en dire autant de la HD7970 non?
Parce que vous commencez tous à être reloud à ne pas comprendre que le prix d’une CG ne dépend que de ces perf, pas de son titre mdg, hdg ou thdg…
– – – – – – – – – – – – – – – –
C’est bien ça le problème, et beaucoup trop de monde pensent pareil.
Il ne fait aucun doute que GTX 680 aurait du être du milieu de gamme et autour des 300 euros au lancement, mais voila Nvidia c’est rendu compte que ce modèle flirter avec le haute gamme de la concurrence au niveau des perfommances.
Du coup ils l’ont un peu amélioré(3 mois), pour qu’il soit au niveau de la 7970 et la vendent 500 euros.
Résultats ils vendent un produit qu’ils peuvent commercialiser à 300 euros(coût de fabrication etc…) à 500 euros(prix imposé par les perf de la concurrence), et se font une marge tous juste extraordinaire.
Conclusion, à mon avis il ne faut pas espérais voir les GK-110 avant de très très nombreux mois et encore si AMD réplique rapidement.
Mais il n’empêche que je me demande ce qui va advenir des autres cartes Kepler, car si une moyenne gamme peut être aussi performante que le haut de gamme de la concurrence, on est à même de se poser des question, comme y auras t-il:
_Amélioration du GK-100 pour faire du milieu de gamme avec la aussi de grosse marge
_du bridage pour s’aligner sur la concurrence la encore avec l’exemple pour la puce GK-100.
En tous cas ça n’augure rien de bon pour le consommateur lambda, cette capacité à pouvoir s’adapter si facilement à la concurrence en améliorant/bridant une même puce et cela couplé à un nommage des cartes tendancieux 🙁
@arhgoops : Je vois pas vraiment le rapport avec ma question, mais au vu des commentaires c’est de la masturbation vos hdg/mdg/thdg
Et personne ne pense que le GK110 ne sera tout simplement que le prochain bi-GPU de NVIDIA ?
Les spéculations quant aux caractéristiques du GK110 :
– http://www.presence-pc.com/actualite/GK110-Kepler-47076/
– http://www.nokytech.net/images/news/nvidia/GK110.jpg
Sachant que le GK110 sera le meilleur de NVIDIA, tandis qu’en avril sort la bi-GPU d’AMD la 7990, ne serait-il pas cohérent de voir débarquer en août (la date spéculative pour le GK110) soit 3-4 mois après le bi-GPU d’AMD ? Oh mais 3-4 mois c’est le temps qu’il a fallu à NVIDIA pour sortir ce que tout le monde appelle ici et ailleurs le moyen de gamme des “verts”. La 680 est tout simplement le haut de gamme, MONO-GPU, de NVIDIA, n’en déplaise aux fanboy (qui par ailleurs m’horripile qu’ils aiment NVIDIA, AMD, Apple, Android ou tout autre marque… l’objectivité ne fait pas de mal).
Pour ma part, je pense qu’entre AMD et NVIDIA, ce n’est pas tant la guerre que ça. Et puis en tant que consommateur averti, si vous devez choisir un produit, faites-le en toute neutralité. Si j’avais 500€ à débourser aujourd’hui entre une 7970 et une 680, le choix est vite fait, je prends la 680… mais diable que sert-il de dénigrer le modèle d’en face?
LION017, un hater de (tout) fanboys.
Ah, si j’étais riche… 🙁