Le HDMI 2.1 se dévoile et laisse entrevoir une importe progression de ses capacités. Le HDMI Forum a en effet expliqué que ce dernier peut supporter des résolutions allant jusqu’à la 10K (10 240 x 4320p) ! Elle pourra également afficher de la 8K à 60 Hz ou de la 4K en 120 Hz. La norme est évidemment compatible avec le Dynamic HDR, qui adapte en direct les différents paramètres (comme le contraste, la luminosité ou la colorimétrie) des vidéos regardées.
Plus impressionnant encore, elle peut gérer une bande passante jusqu’à 48 Gb/s (face au 18 Gb/s de l’HDMI 2.0) grâce à un câble Ultra High Speed HDMI dont il faudra disposer. Ce dernier est lui même capable de délivrer de la vidéo en 8K HDR, tout en protégeant les appareils à proximité des interférences électromagnétiques.
L’aspect sonore n’est pas en reste avec le support de l’eARC, qui permet de tirer parti des formats audio 3D Atmos/DTS:X. Enfin, le mode VRR s’adresse directement aux gamers puisqu’il offre un taux de rafraîchissement variable, ce qui permet de profiter d’une meilleure fluidité en jeu et réduirait le lag. Rien de bien étonnant pour les gens qui connaissent déjà la technologie G-Sync de Nvidia.
Vu la faiblesse des contenus dans les résolutions évoquées précédemment, vous aurez compris qu’il s’agit ici de prendre de l’avance. Mais la démocratisation de la 4K avance. On comprend donc que la norme phare de l’audiovisuel domestique doive garder un (sacré) temps d’avance.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
N’est-ce pas un peu désuet d’améliorer le HDMI alors que l’USB type C semble être son successeur ?
Compares les débits 😉
Ne confond tu pas l’USB 3.x et l’USB-C ?
Parce que je ne me souviens pas avoir vu de debit maximum du connecteur USB-C lui même et j’ai beau chercher, je n’arrive pas a trouver.
Je viens de trouver que le displayport 1.4 gere la 8K à 60 ips et l’USB-C.
Par contre le débit est moindre: 25.92 Gbit/s
Non non c’est bon je confond pas 🙂
HDMI est un connecteur et une norme de transfert. USB type C c’est juste un type de connecteur. je pense que tu voulais parler de USB 3. Et en plus, même l’usb 3.2 a une limite a 20 Gbit/s
J’aurais plutôt vu le Display-port comme successeur.
Petite erreur : G-Sync d’Nvidia, pas G-Synch 🙂
Ils sont prévu quoi comme norme pour le son quand ils arriveront à 56K?
Parce qu’on s’est pas fait chier à passer à la fibre pour se retrouver avec le son dégueulasse du 56K.
Tu sors !! XD
Ok mais via du HDMI 2.1 alors. Je suis en avance sur mon temps.
Moi aussi je ne comprends pas. Actuellement le Display port est bien plus puissant mis à part qu’il ne fait pas suivre le son, mais dans tous les matériels un minimum haut de gamme (et là on parle bien de viser haut = haut de gamme), le son part d’un côté et la vidéo de l’autre, donc ça n’est pas grave : gros débit vidéo pour la vidéo, le son en fibre optique d’un autre côté. Bref DS actuellement est plus performant et me semble plus prometteur.
Faut bien laisser plusieurs alternatives pour la connectique.
Pourquoi “Sacrée” pour un “temps d’avance”
Peut-être que parce qu’on est pas près de voir du 10k, que ce soit en straiming, ou encore moins TV…
Franchement c’est cool, mais sinon ?
Déjà que pour la commun des mortels, faire la différence entre le UHD1, UHD2 et 4K est difficile…
Quand on voit que les Box TV / TNT ne transmettent pas systématiquement de la 4K, car elles ont dû changer leur format pour passer au Full HD (aka 2K) et que les chaines de TV ne “peuvent” pas transmettre en 4K continuellement… Ne parlons même pas des TV…
Donc l’intérêt de parler du 10K est cool, mais à 48Gigabyte/s (soit 6Go/s pour l’information) faudra inventer la Fibre++ afin d’en profiter ainsi que les processeurs adéquates… puis trouver un capteur vidéo / photo pouvant avoir la résolution, sinon ça ne sert à rien (44,2 méga pixel) !
pour regarder sur ton ecran PC de 24/27″ ou ta TV de 60″, non ca sert à rien.
Par contre pour les écran publicitaire ? le Cinéma ? Tout autre milieux pro ?
Sur mon écran d’ordi de 40 pouces je vois immédiatement la différence entre du full hd et du 4k.
Je viens de m’acheter une télé 4k 82″ et je peux te dire que j’ai vraiment failli attendre l’année prochaine pour les télés sharp 8k mais elles seront genre 2 ou trois fois plus cher donc je passe mon tour.
Et faut pas oublier qu’en posant la télé au sol on peut monter à 470 pouces pour un plafond à 2 mètres 30 (184 pouces) donc moi je dirais qu’on devrait s’arrêter à la 8/16K
470 centimètres DSL
Bah comme partout, les hommes pensent que plus elle est grosse plus ça sera bon !
Je viens de la recevoir donc je peux te dire que c’est fantastique, mais on s’habitue vite… Je crois que je suis un éternel insatisfait…
M’enfin, avant que les producteurs s’adaptent à ce format et ne filment qu’en grand angle (et en 4k/8k) on est quand même obligé de se tenir loin de l’écran, pas envie de ne voir que le nez des acteurs au milieu de l’écran qui plus est sur une vieille vidéo en vga. Mais je me rends compte de la réelle utilité de ces écrans, c’est que regarder un film à 5 c’est convivial, un écran autant grand faut en faire profiter les autres.
Télé 4k 82″… En effet à environ 4.000€ tu n’es plus à une brouille près…
Moi j’ai mes deux écrans 4k pour noël merci Amazon avec 300 euros au lieu de 400 le 28 pouce et bien je vous garanti que pour développer on sent plus que carrément la différence ! Ça fait 7 jours que je les ai et je reste toujours bluffé devant la qualité
J’espère que tu voulais juste développer ton argumentation et pas dire que tu étais développeur…
Car sinon, je vois pas en quoi des écrans 4k vont vraiment t’aider à lire et taper des lignes de code….
j’attend le 2048k 10k c’est has been
bonjour vous me proposer quel hdmi pour relié ma tv 4k à ma ps4 pro svp? car ma tv 4k je trouve que sa péte pas niveau couleur et j’arrive pas à trouver le réglage optimal et j’ai comme un grain sur l’image