HDR10
Ce que c’est : Norme ouverte pour le HDR.
HDR10+
Ce qu’il est : Norme libre de droits pour le HDR
Dolby Vision
Ce qu’il est : Une norme propriétaire pour le HDR faite par Dolby.
HDR10 | HDR10+ | Dolby Vision | |
Bit Depth | Good | Bonne | Grande |
Luminosité de pointe | Grande | Grande | Excellente |
Mappage des tons | Varies par fabricant | Meilleur | Meilleur |
Métadonnées | Statique | Dynamique | Dynamique |
Support TV | Grande | Limitée | Limitée |
Disponibilité du contenu | Bonne | Limitée | Limitée, mais en croissance |
Diffusion en bits
HDR10
- 10 bits
- 1.07 milliards de couleurs
HDR10+
- 10 bits
- 1,07 milliards de couleurs
Dolby Vision
- 12 bits
- 68.7 milliards de couleurs
La profondeur de bits décrit la quantité de graduations des couleurs dans une image. Le contenu SDR est généralement maîtrisé à 8 bits, ce qui permet d’obtenir 16,7 millions de couleurs. Le contenu HDR est généralement maîtrisé à 10 bits, ce qui permet d’obtenir jusqu’à 1,07 milliard de couleurs. Plus vous pouvez afficher de couleurs, plus l’image est réaliste, avec moins de bandes et une transition plus subtile dans les zones de couleur similaire. Pour plus d’informations, consultez notre article sur les dégradés.
Le contenu Dolby Vision permet d’afficher jusqu’à 12 bits de couleurs ; HDR10 et HDR10+ ne sont que de 10 bits. Cela peut ne pas sembler être une grande différence, mais la couleur 10 bits équivaut à 1,07 milliard de couleurs, tandis que 12 bits augmente ce chiffre à un impressionnant 68,7 milliards de couleurs. Cela permet un contrôle beaucoup plus fin des gradations, ce qui donne une image plus réaliste, sans bandes.
Vainqueur : Dolby Vision, techniquement. Même si Dolby Vision prend en charge la couleur 12 bits, il n’existe pratiquement aucun appareil qui puisse en tirer parti. Espérons que les panneaux 12 bits commenceront à arriver sur le marché dans les années à venir.
Luminosité de pointe
HDR10
- Masterisé de 1000 à 4000 cd/m²
HDR10+
.
- Masterisé de 1000 à 4000 cd/m²
Dolby Vision
- Masterisé actuellement à 4000 cd/m², mais supporte jusqu’à 10000 cd/m²
La plupart des contenus Dolby Vision sont actuellement maîtrisés à 4000 cd/m² ; Les contenus HDR10 et HDR10+ sont maîtrisés à différents niveaux allant de 1000 à 4000 cd/m² selon le titre.
Les trois normes prennent en charge des images allant jusqu’à 10 000 cd/m², bien qu’aucun écran ne puisse actuellement atteindre ce niveau. Il n’y a donc pas de réelle différence entre les formats puisqu’ils plafonnent tous deux à 4000 cd/m².
Gagnant : Dolby Vision. Le contenu Dolby Vision bénéficiera d’un mastering plus cohérent puisque le HDR10 et le HDR10+ ne sont pas aussi spécifiques dans leurs exigences. Gardez à l’esprit, cependant, que peu de téléviseurs de 2018 dépassent même 1000 cd/m², donc cela n’a pas d’importance pour le moment.
Mappage des tons
HDR10
- Les tons qui dépassent la gamme du téléviseur sont mappés en utilisant la fonction de transfert PQ.
HDR10+
- Les tons qui s’étendent au-delà de la gamme du téléviseur sont mis en correspondance en utilisant la fonction de transfert PQ.
Dolby Vision
- Les tons qui dépassent la gamme du téléviseur sont mappés par une puce Dolby* en utilisant la fonction de transfert PQ.
Si vous avez un téléviseur avec une luminosité maximale de 1400 cd/m², comment gère-t-il les hautes lumières d’un film qui a été maîtrisé à 4000 cd/m² ? Il est crucial de savoir comment les téléviseurs avec une luminosité de pointe relativement faible traite un film qui a été maîtrisé à une luminosité de pointe beaucoup plus élevée.
La façon la plus simple est l’écrêtage. Dans notre exemple d’un téléviseur de 1400 cd/m2, tout ce qui va de 1400 à 4000 serait écrêté. Qu’est-ce que cela signifie ? Cela signifie qu’aucun détail ne serait vu dans cette plage de luminosité et qu’il n’y aurait pas de couleurs discernables dans cette région. C’est tout simplement parce que le téléviseur ne peut pas reproduire les détails dans des zones aussi lumineuses car elles sont au-dessus de sa puissance maximale. Heureusement, la plupart des téléviseurs décents n’utilisent plus cette méthode.
L’alternative est la cartographie des tons. Sur un téléviseur de 1400 cd/m2, les hautes lumières de 1400 à 4000 sont remappées pour tomber en dessous de 1400 cd/m2. En pratique, cela signifie qu’il y a une légère atténuation de la couleur dans les hautes lumières à partir de 1000 cd/m2.
Cela signifie que certaines hautes lumières sur un téléviseur qui utilise le tone mapping apparaîtraient légèrement plus faibles que si le même téléviseur utilisait l’écrêtage. Bien que cela soit inévitable, une image à mappage de tons montre beaucoup plus de détails dans les hautes lumières qu’une image qui est écrêtée.
*Avec Dolby Vision, les premiers appareils qui prenaient en charge Dolby Vision avaient besoin d’une puce Dolby propriétaire qui vérifie le modèle du téléviseur et applique le mappage de tons en utilisant les limites du téléviseur comme référence. Dolby a assoupli cette exigence, et certains téléviseurs, notamment ceux de Sony, effectuent cette opération via un logiciel à la place. Avec le HDR10 et le HDR10+, le mappage des tons est entièrement le choix du fabricant, ce qui peut entraîner des incohérences.
Vainqueur : Dolby Vision.
Métadonnées
Les métadonnées peuvent être considérées comme une sorte de manuel d’instruction, qui décrit diverses facettes du contenu ; elles sont contenues à côté de la série ou du film et aident l’écran à traiter le contenu de la manière la plus efficace.
L’une des façons dont les trois formats diffèrent est dans leur utilisation des métadonnées. Le HDR10 ne demande que des métadonnées statiques. Avec les métadonnées statiques, les limites de la luminosité sont définies une fois, pour l’ensemble du film/spectacle, et sont déterminées en prenant la plage de luminosité de la scène la plus lumineuse. Dolby Vision et HDR10+ améliorent cela en utilisant des métadonnées dynamiques, ce qui leur permet d’indiquer au téléviseur comment appliquer le tone-mapping sur une base scène par scène, ou même image par image.
Gagnant : Dolby Vision et HDR10+. Ils sont meilleurs pour s’adapter à des scènes qui ont un éclairage très différent.
Disponibilité
Appareils pris en charge
HDR10 | HDR10+ | DV | |
UHD Blu-.Ray | Yes | Yes | Yes |
Netflix | Yes | No | Oui |
Amazon Video | Oui | Oui | Oui |
Vudu | Oui | Non | Oui |
NVIDIA Shield | Oui | No | No |
Fire TV Stick 4k | Yes | Yes | Yes |
Apple TV 4k | Oui | Non | Oui |
Chromecast Ultra | Oui | Non | Oui |
NVIDIA GTX 900 Series et plus | Oui | Non | Oui |
AMD Radeon RX et plus | Oui | Non | Non |
La disponibilité des nouveaux formats HDR s’est considérablement améliorée ces dernières années. On trouve désormais le Dolby Vision et le HDR10 sur les Blu-Ray UHD, et ils sont pris en charge par la plupart des appareils externes, bien qu’il n’y ait encore que quelques films disponibles sur disque qui prennent en charge le Dolby Vision. Les premiers films HDR10+ sont sortis sur Blu-ray UHD, mais la plupart des appareils de lecture externes ne le prennent pas encore en charge. Il est toutefois important de noter que si le téléviseur lui-même ne prend pas en charge Dolby Vision, l’utilisation d’une source externe ne fera pas de différence. Découvrez où trouver du contenu HDR ici.
Vainqueur : HDR10.
Téléviseurs pris en charge
Bien que la grande majorité des téléviseurs prennent en charge le HDR10 et que de nombreux modèles prennent en charge au moins un des formats plus avancés, aucun des modèles disponibles aux États-Unis ne prend en charge tous les formats. Sony, LG, Vizio, Hisense et TCL prennent en charge le HDR10 et le Dolby Vision sur la plupart de leurs modèles, tandis que Samsung reste investi dans le HDR10+ et ne prend actuellement en charge le Dolby Vision sur aucun de ses modèles. En dehors des États-Unis, certains téléviseurs Panasonic prennent en charge les trois formats.
Il ne faut pas s’attendre à ce que les téléviseurs HDR les moins chers utilisent toutes les capacités supplémentaires des formats. Pour la plupart d’entre eux, vous ne serez même pas en mesure de voir une différence. Seuls les téléviseurs haut de gamme peuvent en tirer parti.
Vainqueur : HDR10.
Appareils mobiles
Bien qu’encore limités, la plupart des téléphones haut de gamme supportent désormais le HDR. La plupart des téléphones Samsung haut de gamme prennent en charge le HDR10+, notamment les nouveaux S10, S10e et S10+. Les iPhones d’Apple prennent en charge Dolby Vision depuis l’iPhone 8, mais seuls les iPhone X, XS et XS Max disposent de véritables écrans HDR.
HDR10 | HDR10+ | DV | |
iPhone 8 | Yes | Non | Oui |
iPhone X | Oui | Non | Oui |
iPhone XS | Oui | No | Oui |
LG G6 | Oui | Non | Oui |
Galaxy S10+ | Oui | Oui | Non |
Huawei P20 | Oui | Non | Non |
Gagnant : HDR10. Comme vous ne pouvez pas vraiment connecter un lecteur externe à un téléphone, le HDR sur les téléphones est principalement limité aux services de streaming. Si la plupart des services de streaming proposent certains contenus en Dolby Vision et HDR10+, la majorité d’entre eux restent en HDR10.
Gaming
HDR10 | HDR10+ | DV | |
PS4/PS4 Pro | Oui | Non | Non |
Xbox One | Oui | Non | Oui |
Nintendo Switch | Non | Non | Non |
PC | Oui | Non | Oui |
Bien que le HDR ait été initialement conçu pour les films, les avantages pour les jeux sont indéniables. La plupart des consoles modernes prennent en charge le HDR10, notamment la PlayStation 4 originale ainsi que la PlayStation 4 Pro, et les nouvelles Xbox One. La Xbox One prend également en charge Dolby Vision, bien qu’elle ne soit pas prise en charge par tous les téléviseurs, car elle utilise un nouveau format Dolby Vision « à faible latence », garantissant que le traitement supplémentaire utilisé pour Dolby Vision n’ajoute pas trop de latence pour les jeux.
Comme pour les films, les développeurs de jeux doivent activer le support du HDR dans leurs jeux. Malheureusement, le HDR10 n’est pas toujours mis en œuvre correctement, de sorte que les résultats réels peuvent varier. Il y a une poignée de jeux Dolby Vision disponibles dès maintenant, notamment Assassin’s Creed Origins, Battlefield 1 et Overwatch, pour n’en citer que quelques-uns.
Voir nos recommandations pour les meilleurs téléviseurs de jeu 4k HDR.
Gagnant : HDR10
Moniteurs
Les moniteurs ont été très lents à adopter le HDR. Cela commence à changer cependant, avec de plus en plus de moniteurs prenant en charge le HDR10. Le groupe de normalisation VESA a fait pression pour de nouvelles normes pour le HDR sur les moniteurs, qui ne peuvent généralement pas atteindre les niveaux de luminosité nécessaires pour une bonne expérience HDR. Malgré cela, les moniteurs ont encore quelques années de retard sur les téléviseurs. Les quelques moniteurs qui offrent une expérience HDR décente sont très chers et restent en deçà de l’expérience HDR des téléviseurs. Aucun moniteur ne prend en charge HDR10+ ou Dolby Vision, bien que quelques ordinateurs portables soient sortis avec le support Dolby Vision.
Gagnant : HDR10
HLG
Il existe également le HLG ou hybrid log gamma. Il est actuellement pris en charge par la plupart des grands fabricants de téléviseurs. HLG vise à simplifier les choses en combinant SDR et HDR en un seul signal. C’est idéal pour les diffusions en direct, car un seul signal peut être lu par n’importe quel appareil qui le reçoit. Si l’appareil prend en charge le HDR, il s’affichera en HDR, sinon, c’est la partie SDR du signal qui sera diffusée. Comme il est destiné aux diffusions en direct, il y a très peu de contenu HLG disponible.
Conclusion
Dolby Vision est sans doute le format HDR le plus avancé d’un point de vue technique, mais bien qu’il se soit considérablement amélioré, le manque de contenu le freine un peu. Le HDR10 a le net avantage d’avoir plus de contenu disponible et d’être pris en charge par la majorité des téléviseurs. Le HDR10+ correspond presque aux capacités du Dolby Vision, mais il manque cruellement de contenu et, aux États-Unis du moins, n’est pris en charge que par les téléviseurs Samsung.
En fin de compte, la différence entre les deux formats n’est pas si importante. La qualité du téléviseur lui-même a un impact beaucoup plus important sur le HDR (voir nos recommandations pour les meilleurs téléviseurs HDR). Bien que la technologie se soit considérablement améliorée ces dernières années, le HDR n’en est encore qu’à ses débuts. Les deux formats ont la capacité de produire des images beaucoup plus dynamiques que ce que nous voyons aujourd’hui sur les meilleurs téléviseurs. Cette limitation est due à la fois à la technologie des téléviseurs et à la façon dont les titres sont maîtrisés. Nous ne pouvons pas encore atteindre la luminosité maximale de 10 000 cd/m2 et la gamme de couleurs 12 bits étendue.