Passer au contenu

Nvidia présente la G-Sync : de la synchro verticale à tous les framerates

Les gamers le savent très bien, les écrans et les cartes graphiques ont parfois du mal à se synchroniser. Cela se traduit généralement par des déchirures…

Les gamers le savent très bien, les écrans et les cartes graphiques ont parfois du mal à se synchroniser. Cela se traduit généralement par des déchirures (tearing) sur l’écran, ce qui peut s’avérer assez gênant à l’œil, en plus de ne pas être optimal pour jouer.

Pour mettre fin au problème, il n’y a pas 36 solutions : il faut activer la V-Sync, ou synchronisation verticale en bon français. Celle-ci activée, le GPU va délivrer les images au même taux de rafraîchissement que le moniteur, ou à une fraction de ce dernier.

Généralement, 60 images par secondes pour les écrans 60 Hz, ou 30 images (ou 20 ou 15) si le GPU n’arrive pas à calculer 60 (ou 30 ou 20) images par seconde. C’est ce que Nvidia appelle “l’adaptative V-Sync”. Pour faire simple, les images sont rendues au même rythme que l’écran. Plus de déchirures.

NVIDIA_GSync-3-processed

Cela a deux inconvénients. Dans un premier temps, cela bride le framerate, on ne peut donc plus profiter pleinement de la capacité de sa carte graphique, achetée parfois à prix d’or.  Dans un second temps, la synchronisation verticale va parfois nécessiter d’afficher deux fois la même image pour fonctionner de concert avec l’écran. Ce qui peut créer des inputs lag au grand dam des joueurs de FPS.

Synchroniser à la volée

L’idée du G-Sync est en réalité très simple : s’affranchir du taux de rafraîchissement fixe de l’écran et le modifier en fonction des images délivrées par la carte. Les deux travaillent au même rythme, plus de problèmes d’affichages et plus de problèmes de lag. Il suffisait d’y penser. La limite annoncée est de 144 Hz.

La technologie nécessite toutefois l’intégration d’une puce dédiée dans les moniteurs. Plusieurs partenaires ont déjà été annoncés, on citera notamment Philips, Asus, BenQ et ViewSonic. Il faudra également un GPU basé sur l’architecture Kepler (GTX 650 et supérieures principalement).

Les premiers moniteurs arriveront au début de l’année 2014. Les prix restent inconnus, espérons que l’intégration de la technologie n’apportera pas un trop gros surcoût.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

7 commentaires
  1. “Dans un premier temps, cela bride le framerate, on ne peut donc plus profiter pleinement de la capacité de sa carte graphique, achetée parfois à prix d’or”

    Justement,je pense que si quelqu’un a les moyens de s’acheter une carte graphique a “prix d’or” il doit lui rester encore un peu de côté pour un écran. Surtout qu’on achète pas une très bonne carte pour mettre ça dans une mauvaise tour. C’est donc tout ou rien !

  2. “Cela a deux inconvénients. Dans un premier temps, cela bride le framerate, on ne peut donc plus profiter pleinement de la capacité de sa carte graphique, achetée parfois à prix d’or.”

    Cette phrase n’a aucun sens. Si l’écran ne fonctionne qu’en 60Hz, il ne pourra donc afficher que 60 images par seconde. À quoi bon calculer 240 images pour au final n’en afficher que 60 ? Ah oui pardon, ça fait plus joli sur les benchmarks. Et ça consomme et chauffe 4 fois plus, ça doit donc être mieux.

  3. @Kernald : Cette phrase a du sens car aujourd’hui les TV/moniteurs haut de gamme sont pour la plupart à 100Hz et plus. L’œil a aussi ses limites… mais l’image est plus “fluide” sur du 100Hz réel que sur du 60Hz, même en lecture de film à 30 images/secondes…

    Si la techno citée sort dans un premier temps au sein d’écrans de ce type, ça pourra toujours servir d’avoir plus de 60 fps. Enfin, un écran ça se garde 2 ans minimum, autant ne pas être limité dans 6 mois par sa carte graphique.

  4. @FatCake : Le principe de la synchro verticale, ce n’est pas de limiter la carte graphique à 60fps arbitrairement mais, comme son nom l’indique, de la synchroniser à l’écran. Si ton écran est à 100Hz, ta carte graphique rendra (si elle le peut) 100 images par secondes.

    Je persiste, cette phrase n’a aucun sens.

  5. @FatCake : J’ai le même écran depuis largement plus de 2 ans… c’est pas un smartphone, un écran ça dure plus longtemps (normalement). Et puis, hors joueur de fps dont je ne fais pas partie, un “petit” moniteur ça n’a plus d’intérêt quand on peut jouer sur sa télé 120hz full hd kiroxx…

  6. Et puis faut arrêter, entre 30 et 60 fps il y a une énorme différence, mais à partir de 60+ il n’y en a plus aucune… N’importe quel jeu est aussi “fluide” actuellement avec vsynch que sans… sans les déchirements avec vsynch

  7. @Vashe : Non. Un jeu qui ne tourne pas à la fréquence de la synchronisation vertical, aujourd’hui, c’est un jeu qui est limité par les performances de la machine. En admettant que la différence ne se voie pas à l’oeil nu (je ne suis déjà pas d’accord sur ce point, mais je suppose que ça dépend des personnes), qui dit machine qui ne suit pas, dit sauts d’images, mais surtout risques de délai niveau entrées (clavier/souris/manette), voire des évènements complètement ignorés. Et ça, suivant les jeux, ça peut être excessivement désagréable.

Les commentaires sont fermés.

Mode