Au milieu de tout le buzz autour des téléviseurs Ultra HD « 4K » au cours de la dernière année, un autre terme connexe a gagné du terrain : la plage dynamique élevée (HDR). Le consommateur moyen pourrait penser que les téléviseurs UHD et les téléviseurs HDR sont la même chose, mais ce n’est pas le cas. Notez que l’imagerie HDR d’un téléviseur est complètement différente du HDR d’une photo. Comme l’a dit Geoffrey Morrison de CNET, « Télévision HDR: élargit le contraste et la palette de couleurs de votre téléviseur pour offrir une image plus réaliste et naturelle que les téléviseurs HD d’aujourd’hui. PhotoHDR: combine plusieurs images avec différentes expositions pour créer une seule image qui simule une plage dynamique plus large. «
Nous avons déjà traité des téléviseurs Ultra HD, nous renverrons donc les lecteurs à notre examen précédent. Pour le HDR, nous nous sommes tournés vers Neil Hunt, Chief Product Officer de Netflix, qui a déclaré :
Un téléviseur 4k a deux fois plus de pixels horizontaux et verticaux qu’un téléviseur Full HD (2k), et donc quatre fois la résolution spatiale. Cependant, chaque pixel ne peut atteindre que 256 niveaux de luminance (8 nits, pour les tendances techniques) dans chaque canal de couleur…. Les téléviseurs HDR sont capables de présenter 1024 ou 4096 niveaux de luminosité différents (10 ou 12 nits) par pixel. Les téléviseurs HDR d’aujourd’hui sont également en grande partie des téléviseurs 4k, mais il n’y a aucune raison particulière pour qu’ils ne puissent pas être 2k.
Dans cette vidéo de review.com, Nandhu Nandhakumar, vice-président senior de LG Electronics, explique comment le HDR peut apporter un meilleur « rapport qualité-prix » aux téléspectateurs :
lumière plus claire et obscurité plus foncée
Les passionnés de vidéo accordent la priorité à deux facteurs dans leurs téléviseurs : le contraste (Luminosité de la lumière et de l’obscurité sur l’écran) et précision des couleurs (Comment les vraies couleurs apparaissent-elles à l’écran ?). La plupart des observateurs conviennent que les téléviseurs avec un excellent contraste et une excellente précision des couleurs sont meilleurs que les téléviseurs avec une résolution plus élevée (c’est-à-dire plus de pixels). Le premier semble juste plus réel et naturel. Ainsi, même un téléviseur HD avec un meilleur contraste et une meilleure couleur peut surpasser un téléviseur UHD avec un contraste et une couleur juste moyens. Les téléviseurs HDR fournissent plus de détails dans les zones sombres et lumineuses de l’écran – de sorte que les ombres ressemblent vraiment à des ombres plutôt qu’à des trous noirs.
Une partie du HDR est appelée Wide Color Gamut (WCG). Cette percée améliore le réalisme des couleurs sur les écrans de télévision. Historiquement, les téléviseurs ont été limités par la technologie du tube à rayons cathodiques (CRT), qui se caractérise par des bords d’image « plus doux » et une couleur/mise au point plus médiocre que les téléviseurs LCD. Les CRT sont connus pour être « plus clairs que les LCD à des résolutions autres que natives ». De même, les CRT provoquent des interférences électriques et des « motifs de moiré » et sont sensibles aux « problèmes de distorsion géométrique et de conditionnement d’écran ».
Les écrans cathodiques ne sont pas non plus aussi brillants que les écrans LCD ; vous vous souvenez peut-être d’avoir louché sur une terrasse ou au bord de la piscine en regardant un téléviseur à tube cathodique en plein jour. Les téléviseurs HDR sont encore plus lumineux que les téléviseurs HD LCD standard. Pour illustrer à quel point les téléviseurs HDR sont plus lumineux que les téléviseurs HD standard, comparez leurs systèmes de rétroéclairage. Les téléviseurs HDR produisent 1 000 nits ou plus, tandis que la norme HDTV/Blu-ray n’offre que 100 nits. (Une lentes est l’unité d’intensité lumineuse visible.) Tout comme les téléviseurs à écran plat ont remplacé les « tubes », les DRH et les WCG remplaceront bientôt les images fanées et floues associées aux téléviseurs traditionnels.
Source : social.lge.co.kr/newsroom/Flickr
Une autre partie du HDR est ce qu’on appelle la « profondeur de bits ». Bien que la technologie HDTV actuelle puisse gérer environ 16,7 millions de couleurs (2563 bleu/rouge/vert), des « bandes » se produisent toujours. Les « rayures » sont des motifs assez distincts de stries de couleur. Bien que 16,7 millions de couleurs représentent un arc-en-ciel géant, il est toujours possible que les téléspectateurs ne puissent pas voir des nuances subtiles comme les nuances d’aubergine ou d’orchidée. Par conséquent, l’image à l’écran n’est pas assez réaliste. La TVHD est basée sur un système 8 bits. D’autre part, les téléviseurs UHD et HDR utilisent des systèmes 10 bits. Faire le calcul avec la profondeur de bits HDR signifie que nous pouvons désormais voir des images dans plus d’un milliard de couleurs.
Es-tu satisfait?
Pour que les téléviseurs HDR atteignent leur plein potentiel, ils ont besoin de contenu HDR. Jusqu’à l’année dernière, le contenu HDR était aussi rare que les dents d’une poule. Jusqu’à récemment, seul Amazon proposait une poignée d’émissions de télévision et de films HDR publiés par Sony. Maintenant, Netflix est à bord, mais d’autres services de streaming comme Hulu, Showtime et Sling TV n’ont pas encore rejoint le mouvement HDR. Roku dispose d’un service de recherche pour trouver des films HDR ; Vudu et YouTube ont des catalogues croissants de contenu HDR. De plus, la spécification Ultra HD Blu-ray fournit une norme Dolby Vision en option pour les versions HDR sorties en salles. (voir fin ci-dessous.)
En ce qui concerne le matériel, votre câble HDMI haut débit existant peut prendre en charge le HDR. Mais votre lecteur multimédia (tel qu’un lecteur Blu-ray 4K) doit utiliser un câble HDMI 2.0a pour envoyer les métadonnées HDR requises à votre téléviseur. Il en va de même pour votre décodeur numérique. Certains appareils, comme la PS4, ont reçu la mise à jour du firmware HDMI 2.0a ; s’ils ne l’ont pas fait, d’autres suivront bientôt. L’incompatibilité matérielle entre HDMI 1.4 et 2.0 ne sera pas un problème si vous prenez la PS4 comme exemple.
fin
Comme pour tout ce qui touche à la technologie, le HDR est soumis à des normes supervisées par un consortium ou un groupe d’étude. En fait, HDR a deux organes directeurs : HDR10 et Dolby Vision. Ces formats concurrents décollent à la manière de Betamax et VHS à la fin des années 1970 et au début des années 1980. Les géants de la fabrication Sony et Samsung ont déjà fait leur marque sur HDR10, et Dolby, une marque bien connue qui remonte à des décennies, s’est enracinée dans les versions existantes de l’audio domestique et de la vidéo domestique des studios hollywoodiens.
Heureusement, les fabricants de téléviseurs Vizio et LG prennent en charge les deux normes, tout comme de nombreux fournisseurs de contenu comme Amazon et Netflix. Pour ceux qui cherchent à ajouter Dolby Vision à leur Smart TV via une mise à jour logicielle, détrompez-vous, car il n’est disponible que via un ajout de micrologiciel (avec les frais de certification et de licence associés). D’autre part, HDR10 est une norme ouverte. Avis aux passionnés de vidéo : selon David Katzmaier de CNET, « Seul Dolby Vision est dynamique, capable de changer scène par scène ou même image par image. Les métadonnées HDR10, en revanche, sont statiques, elles ne s’appliquent donc qu’une seule fois par élément de contenu. . . »
N’oubliez pas ceci : chaque téléviseur HDR prend en charge l’UHD, mais tous les téléviseurs UHD ne prennent pas en charge le HDR. Faites des choix intelligents.
HDR pour la vidéo personnelle
Plage dynamique élevée 10 | Dolby Vision | |
---|---|---|
Fabricant de téléviseurs | Sharp, Vizio, Sony, Samsung, LG, Hisense | Vizio, TCL, LG |
service de diffusion en continu | Netflix, Amazon, Ultra (pour les téléviseurs Sony) | Wudu, Netflix, Amazone |
Studios hollywoodiens | Warner, Lionsgate, Sony, Fox, Paramount | MGM, Universal, Sony, Warner |
lecteur multimédia | Samsung UBD-K8500, Blu-ray 4K | Pas encore disponible |