La carte s’articule autour de deux GPU Kepler mis côte à côte pour 5760 cœurs CUDA couplés à 12 Go de GDDR5, pour une puissance totale de 8 Tflops. Deux Titan en une, pour faire simple. Nvidia destine sa carte Bi-GPU aux professionnels, notamment de l’animation et de la simulation. Démonstration en a été faite en calculant en temps réel des effets de particule assez bluffants.
Seconde cible, les joueurs bien évidemment. Le patron de la marque au caméléon n’a d’ailleurs pas manqué de montrer une vidéo en temps réel de l’Unreal Engine 4, tout aussi impressionnant. Si l’on peut toujours s’en servir pour bâtir la “machine de jeu ultime”, il est évident qu’à 2999 dollars, elle ne sera pas à la portée de toutes les bourses, c’est un euphémisme. Aucune de date n’est annoncée pour le moment.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
la vérité est ailleurs …
Est-ce que ça fera tourner flappy bird en 60 fps?
Le prix aussi sera extra-terrestre lol.
Sinon c’est quoi la différence entre de la GGDR5 d’ici et la GDDR5 de la PS4? J’ai Googlé mais pas trouvé.
http://youtu.be/_j5WaLr0DJk
@chickenwing :
Manque de chance, y’a un FPS cap. 😀
Le prix vient d’ailleurs aussi.
balancez la sonde anale !!
@auronis C’est aussi de la GDDR5 ici. Le “GGDR5” de l’article est une coquille.
c’est pas vraiment une révolution dans les cartes graphique pro il y’a la marque PNY
NVIDIA Quadro K6000 : Kepler pour le monde professionnel.
et bien d’autres.
votre documentaire c’est de l’extraterrestre. mais du vieux
C’est normal c’est une vitrine technologique cette carte, mais c’est pas pour les gamers (enfin si dans 3 ans quand ils la renommerons GtX 975^^)
Tu met deux Titan et tu a plus puissant que cette TitanZ et pour beaucoup moins cher,
déjà parce que les fréquences sont baissé par rapport à un Sli de Titan car limité au niveau de l’alimentation, si on pars sur la base que le port Pci-exp 3.0 donne du 75 watts plus les connecteurs 8 broches 150 watts chacun, ça nous donne du 375 watts max pour une seule carte, bah j’ai pas besoin d’expliquer la suite pour que vous compreniez si on en met deux^^ (des Titan).
J’ai un SLI de 780 TI pour moins cher (en rapellant qu’une 780 TI est plus puissante qu’une Titan), alors POURQUOI?
Le fait de combiné deux même puce sur une seule carte et de mettre 12 Go de GDDR5, oui je sais la 780ti coûte dans les 600€ et est 5% plus perf que la titan et elle date aussi des série 600, attend qu’il propose les 880/870 en Sli, leur TitanZ sera encore plus larguer, je suis pas pour les bi-Gpu trop limité pour les jeux surtout si tu veut en mettre deux xD, mais oui à l’heure actuelle à 1300€ on a beaucoup mieux avec un 780Ti.
@auronis : on appelle ça une faute de frappe, comme “il est évidemment” au lieu de “il est évident”. La rédac’ de “Journal du geek” fait beaucoup de fautes je trouve.
Mmmmh… AMD a aussi dans son sac une BI-GPU 295x (rien d’étonnant) qui ne coûtera que la moitié de celle-ci. Il faudra comparer quand même les performances brut. Mais à moins de vouloir un équivalent Quad-SLI elle n’apporte qu’un intérêt pour que moyen sauf pour ceux qui ont de l’argent à jeter par les fenêtre.
Tout à fait d’accord aussi avec les commentaires sur les SLI de 780TI (voir des 290x)
@power971 : Pourquoi? c’est simple. cette carte est plus destinée aux pro, simulation et animation comme il à été mentionné dans l’article. La différence entre ta carte et la Titan Z? Elle est simple… La 780ti possède 2880 Cuda cores, la titan Z 5760. 3Go de ram pour la 780Ti et 12Go pour la titan… On a pas les infos sur les bandes passantes mais j’imagine que c’est plus élevé aussi. Alors pour en revenir à ta question : Pourquoi une telle carte? Pour faire de la simulation N-body par exemple ou du rendering 3D. la 780Ti se trouvera complètement limitée par rapport a cette carte. Disposer d’autant de Cuda cores sur une seule carte c’est juste génial pour l’accélération des calculs.
Ha ok c’est juste que en googlant GGDR5 j’ai vu des résultat donc je me suis pas posé la question, mais ils ont tous fait une faute alors 🙂
En tout cas ce n’est pas pour moi toute ses cartes graphiques qui valent le prix d’une console et d’un 24″ réunis, même si ce que j’ai compris ici, ce n’est pas pour du JV mais plus pour accompagner certains super calculateur.
2999$, mer il et fou
@auronis : Tu as tout compris 🙂 En fait pour tirer les meilleurs perfos d’un Bi-GPU, il faut faire de la programmation aux petits oignons. Et ça il n’y a que dans les programmes de calculs que c’est fait. Les jeux vidéos ne sont pas optimisés à ce point. Normal donc que les performances soient dégradées.
Pour le rendu gpu, ça dépote (octane render, vray rt,etc…), par contre le prix abusé….
3000 euros ça fait cher, et avoir 3go de buffer avec 780ti, ça peut largement suffir pour la plupart des chargements de données. avec deux 780ti, autant de cuda core pour 1200e. et 11520 pour quatre 780ti à 2400e
J’achète !
@gaia: Je suis assez d’accord avec toi. Après tout dépend des perfs que tu veux. Avoir le même nombre de core sur une ou deux cartes séparées, en terme de performances ça joue. Ok pour des applications de tous les jours le gain est négligeable. Mais sur certains cas de calculs qui peuvent durer des semaines voir des mois même sur GPU, augmenter la densité de cores sur la même carte peut au final donner un gain non négligeable en temps de calcul. Il faut se mettre dans la tête qu’on est sur une carte un peu spéciale car clairement dimensionnée pour les pros. Quand on est à des trucs du genre 30h de calculs pour une seule frame (pour avatar si mes souvenirs sont bons) chez Pixar, on comprend mieux l’intérêt de ce genre de carte si ça fait gagner rien que 2h de calculs sur chaque frame d’un film à 60ips, je vous laisse faire le calcul ^^. C’est la même chose pour les industriels (automobile, aéronautique, …)
@DD3D: As-tu déjà essayé de jouer avec les Quadro? Ce sont les cartes dédiées aux traitements graphiques professionnel, pas pour jouer. Et du coup pour jouer, un Quadro à 3000€ est largement inférieur à ce GTX Titan Z (qui est supposé d’être polyvalent?)…
Je crois que cette carte vise plutôt les gens qui veux jouer en 4K 😀