HDR : les premières clés du high dynamic range (partie 1)

Après une course effrénée aux pixels, les constructeurs nous promettent de plus belles images grâce au HDR, une technologie qui vise à améliorer le contraste lumineux de l’image... 
1_Brick_au_clair_de_lune.jpg

 

HDR signifie « high dynamic range » ou « large gamme dynamique » dans la langue de Molière. Derrière cet acronyme, se cachent de nombreuses réflexions technologiques, mais aussi malheureusement une guerre commerciale impitoyable qui nous rappelle les confrontations Blu-ray – HD-DVD.

Au moment où, sans atteindre encore l’âge adulte, cette jeune technologie entre pleinement dans son adolescence, nous souhaitons vous fournir les clés nécessaires à la compréhension de son caractère (celui de la technologie HDR… suivez un peu SVP). Des normes se précisent, mais tous les choix ne sont pas encore finalisés.

 

Parmi toutes les caractéristiques du signal vidéo, le traitement du contraste et des hautes lumières était un frein indéniable à l’amélioration de l’expérience visuelle. Nous vivons une étape majeure, un pas de plus vers l’union du cinéma et de l’audiovisuel. La recommandation ITU-R BT.2020 (également connue sous l’abréviation Rec. 2020) définit les résolutions UHD (3 840 x 2 160 et 7 680 x 4 320), et un espace colorimétrique élargi (WCG) par rapport à la recommandation Rec. 709 de la HD.

Le signal vidéo évolue nécessairement à partir de technologies et de normes liées à des choix historiques dépendants des possibilités matérielles de l’époque, souvent (toujours ?) dépassées aujourd’hui.

 

Le contraste de lumière qui peut être reproduit en vidéo actuellement illustre bien ce propos. Chaque composante du signal vidéo (RVB ou YCbCr) est définie sur 8 bits, soit un maximum de 256 niveaux entre les zones les plus lumineuses et les plus sombres (pour être exact, pour le signal YCbCr, des zones sont dédiées aux infra-noirs et aux super-blancs pour chaque composante du signal). Cet échelonnement (quantification) du signal lumineux était suffisant pour les écrans à tubes cathodiques dont la luminosité maximale était de 100 nits (100 candelas/m2).

 

Depuis la prise de vue, jusqu’à la diffusion, en passant par les étapes de postproduction et notamment l’étalonnage, les professionnels doivent compresser la plage dynamique des scènes filmées (ou créées par ordinateur) pour la ramener aux possibilité de la SDR (standard dynamic range).

De plus, les caméras ont vu leurs caractéristiques dynamiques évoluer d’une manière très sensible, notamment grâce aux grands capteurs, avec des valeurs flirtant avec les 14 diaphs.

 

 

Quelles sont les capacités dynamiques de l’œil ?

Pour juger des besoins et améliorations visuelles possibles dans le domaine du contraste, il est important de mieux nous connaître. Et la chose est complexe. La vision humaine est basée sur l’association de notre œil (à la fois instrument optique et capteur) et du cerveau pour analyser le monde qui nous entoure d’une manière dynamique. C’est ce qui rend la comparaison avec des caractéristiques matérielles (des caméras notamment) statiques délicates.

 

Nos deux capteurs

La rétine est parfois assimilée au capteur d’une caméra. Les cellules qui la composent sont de deux types : les bâtonnets, au nombre de 120 millions, sont plus sensibles aux faibles lumières, les 6 millions de cônes étant eux responsables des informations colorées. Les cellules sont réparties de manière non homogène sur la rétine avec une zone centrale de 2 mm2 environ, riche en cônes et bâtonnets : la macula, et la fovéa, une zone encore plus resserrée contenant uniquement des cônes.

Les bâtonnets sont responsables de la vision scotopique (de nuit) et les cônes de la vision photopique (diurne ou de jour). La vision mésopique est la combinaison des visions photopique et scotopique et fait donc usage des cônes et des bâtonnets.

Limitons-nous au domaine qui nous concerne, la dynamique de l’œil : l’écart entre les lumières les plus sombres et les plus lumineuse que nous pouvons distinguer.

 

L’œil peut discerner des éléments lumineux depuis 0,001 lux jusqu’à 10 000 lux, soit un rapport de 1 à 10 millions soit 26 EV ou 26 diaph (on utilisera dans la suite du document le terme de diaph qui représente un doublement de luminosité entre chaque valeur – l’œil réagissant à la lumière de manière logarithmique, ce terme est plus représentatif). Cette valeur est la plage de contraste statique de l’œil.

Cependant, à un moment donné, l’œil est capable de percevoir des écarts de 1 pour 1 000 soit environ 10 diaphs. C’est la plage de contraste dynamique de l’œil. Cependant, en analysant les différentes zones de l’image par balayage, le duo œil-cerveau présente un contraste plus important, estimé aux environs de 14 diaphs.

 

 

Un peu d’histoire : les débuts du HDR en photographie

C’est à partir de 2007 que le terme HDR a été popularisé dans le domaine de la photographie. Mais bien avant cette date, dans les années 50… au XIXe siècle, en 1855 pour être précis, Gustave Le Gray a été le premier à faire usage de plusieurs négatifs avec des expositions différentes pour le ciel et la mer de sa photo, Brick au clair de lune, une marine.

En photographie, le procédé est resté le même aujourd’hui : l’opérateur prépare de trois à neuf photos avec des expositions différentes qui seront traitées en postproduction pour obtenir une image disposant des hautes lumières, des ombres et de la large plage tonale de la scène d’origine.

Cependant avec cette technologie, un remappage des différentes zones tonales est effectué vers un médium de « diffusion » proposant une gamme dynamique généralement plus limitée. Pour afficher ces photos HDR les écrans informatiques ne nécessitent pas de caractéristiques particulières. Cette technologie permet la création d’images réalistes ou au contraire des résultats stylisés surréalistes.

 

 

Le HDR et la télévision

Un des prérequis pour proposer de la vidéo en HDR est de dépasser les 256 niveaux de la vidéo numérique encodant ses composantes sur 8 bits ; les téléviseurs HDR devront donc disposer au minimum d’un affichage 10 bits capable de reconstituer les 1 024 nuances de chaque composante. Il faudra également que l’écran soit capable d’afficher des zones de l’image avec une luminosité beaucoup plus importante qu’en SDR (en fonction des technologies).

Le HDR est devenu le nouvel argument commercial des vendeurs et marques high-tech ; et il est ainsi apparu à côté des icônes 4K ou UHD (Ultra HD) sur les cartons de vos échoppes favorites. Cependant, le HDR est décorrélé de la résolution, et on peut tout à fait envisager la préparation de contenus HDR en HD.

 

Les images de nos dalles étant aujourd’hui très détaillées, le HDR nous propose d’en faire plus avec ces pixels, obtenant ainsi un plus grand contraste entre les tons sombres et les hautes lumières, un étagement tonal plus fin et au final une image plus réaliste et des hautes lumières plus saturées (les couleurs perdaient en saturation en haute lumière pour la SDR – avec un blanchissement des hautes lumières).

Au final, le gain apporté par le passage de la HD au HDR est généralement perçu comme plus important que celui du passage de la HD au 4K SDR.

 

Le contraste se mesure entre les valeurs de plus hautes lumières qu’un téléviseur peut diffuser et de la luminosité du noir le plus sombre, valeurs exprimées en nits (cd/m2). La technologie Oled propose actuellement les noirs les plus profonds, puisqu’elle est la seule à permettre l’extinction complète de chaque pixel indépendamment de ses voisins.

En définition standard, les luminosités maximales des téléviseurs se situent entre 300 et 500 nits. Les modèles HDR actuels les plus haut de gamme proposent des pics de luminosité à 2 000 nits ; Sony a proposé au CES 2018 un prototype avec 10 000 nits de luminosité maximum.

 

Les noirs sont le point fort de la technologie Oled, mais la luminosité maximale est en retrait par rapport aux autres technologies ; cependant, des constructeurs ont annoncé des évolutions sur ce critère avec le dépassement du cap des 1000 nits dès l’année prochaine.

 

 

Les récents débuts du HDR

La technologie est très fraîche : les normes sont tout juste « sèches ». Les premiers prérequis pour le matériel HDR ont été écrits par l’UHD Alliance (groupement d’industriels dont Samsung, LG, Sony, Panasonic et Dolby) à l’occasion de l’annonce de la mise en place de la certification commerciale et du logo Ultra HD Premium en avril 2016 pour les lecteurs Blu-ray UHD : le signal vidéo doit être encodé avec une quantification de 10 bits minimum et les téléviseurs doivent proposer des pics de luminosité jusqu’à 1 000 nits (pour prendre en compte les caractéristiques des écrans Oled, la certification impose deux niveaux de luminosité extrêmes selon les possibilités dans les noirs des écrans : soit pour un niveau de noir inférieur à 0,05 cd/m2, un pic de luminosité supérieur à 1 000 cd/m2 ou pour un niveau de noir inférieur à 0,0005 cd/m2, un pic de luminosité supérieur à 540 cd/m2).

 

Article en 3 parties – La suite lundi et mardi prochains…

Extrait de l’article paru pour la première fois dans Mediakwest #28, p.34/42. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.


Articles connexes