HDMI 2.0 et 10 bits / 12 bits

FX Cachem

Administreur
Membre du personnel
8 Décembre 2013
13 551
519
203
Paris
www.cachem.fr
Je viens de rédiger un article un peu provocateur "Vidéos - Lâchez-nous avec le 10 bits / 12 bits"... j'ai choisi de le rendre provocateur (au moins dans le titre) pour interpeller les gens.

Petit rappel, certains ici sur le forum se sont plaint que les NAS (Braswell) ne géraient pas les vidéos 4K / Ultra HD encodées en h.265 10 bits. Il s'agit d'une limitation du processeur Intel. Pour rappel, les vidéos 8 bits affichent que 16,77 millions de couleurs : "Bouh, trop nul". Le 10 bits c'est 1,07 milliard de couleurs : "Ah c'est mieux". OK, le 10 bits c'est bien mieux... mais l'oeil humain dit « normal » pourrait distinguer jusqu’à 8 millions de couleurs (certains scientifiques parlent de seulement 1 million).

De plus, l'oeil est bien plus sensible aux changements d'intensité lumineuse, qu'aux changements de couleur... et que dire de la qualité des sources téléchargées sur Internet (encodés avec les pieds) ?
 
enfin je crois que tes sources sont surtout américaine :geek:

d'un point de vu russe c'est une vison capitaliste et bourgeoise de la notion de couleur visible

https://www.youtube.com/watch?v=t7TrIXvpdb4
 
Je suis vert de rage :evil:

J'avais fait un gros post sur le sujet dans la news et pouf message disparu....

DAY - GOU - TAY :evil: :evil: :evil:


EDIT : Ah putain, c'est ces crétins de chez Disqus qui ont mon post en spam !!!

Je le remet ici.

Je partage assez l'avis de FX. Et pourtant je suis plutôt un puriste dans le genre.

L'exemple que donne Mathieu était vrai avant l'arrivé du h264, quand on était encore au DivX/Xvid. A une époque où on compressait trop pour que ça tienne sur un disque optique, CD ou DVD. J'ai fait pas mal de test chez moi, il y a quelques années maintenant, avec des lecteurs multimédias et la PS3, Blu Ray et fichiers. Aujourd'hui, on ne constate plus ce genre d'effet d'escalier dans les nuances de couleurs en h264 parce qu'effectivement on atteint les limites de la vision humaine. Si vous en avez, alors ce sont vos fichiers 1080p qui sont trop compressés ou mal fait, que votre TV est mal réglé, etc. Fuyez le 1080p HDlight & co à 4 Go.

Le h265 a été conçu pour que l'on puisse faire de la 4K sans faire exploser le débit nécessaire à sa diffusion ou les Go nécessaires à son stockage. L'intérêt du 10 bits est en réalité plus à chercher dans cette capacité de compression du h265/hevc, son principale avantage sur le H264 depuis le début. Le codec est plus efficace en compressant à 10 bits qu'à 8 parce qu'il a été conçu ainsi. La précision de calcul est meilleur puisqu'étendu sur un plus grand panel de nuance. Mais ce n'est pas pour ça que vous verrez une image plus belle à la fin avec vos yeux.

Après, il est aussi intéressant d'avoir 10 bits pour les gens qui shootent et montent ensuite les images. Plus de détail, ça donne plus de souplesse pour corriger les éventuels erreurs de capture faites sur le terrain. C'est pareil en photo, mais ça c'est avant que nous visualisions le résultat final sur nos écrans, que ce soit en 8 ou en 10 bits.

Et n'oubliez pas, si votre TV n'est pas capable d'afficher 10 bits, vous regardez de toute façon en 8.
 
http://isvpatch.external.hp.com/HPPTF2/drvlib/docs/Mwp30bitColorwithDreamColorMonitor.pdf
 
damien.thg a dit:
J'avais fait un gros post sur le sujet dans la news et pouf message disparu....
damien malheureusement il est passé en SPAM. Pourquoi ? Aucune idée... mais je l'ai validé et il est bien en ligne.

romain a dit:
d'un point de vu russe c'est une vison capitaliste et bourgeoise de la notion de couleur visible
Bien joué ;)

romain a dit:
http://isvpatch.external.hp.com/HPPTF2/drvlib/docs/Mwp30bitColorwithDreamColorMonitor.pdf
Merci pour le 30 bits :rolleyes: