Soyons pragmatiques. Un écran ou un vidéoprojecteur est conçu selon le fonctionnement de l’œil humain pour afficher le plus fidèlement possible les détails, la lumière et la couleur d’un flux d’images capté par une caméra ou synthétisé par ordinateur. Le signal audiovisuel a été normé selon les connaissances progressivement acquises, qu’elles soient scientifiques, physiologiques ou technologiques. Nous introduisons notre dossier consacré à la calibration par une présentation des concepts nécessaires à la bonne compréhension des paramètres mesurés et modifiés pour s’assurer de la meilleure fidélité des reproducteurs d’images dans la limite des normes de diffusion choisies.

Calibration : le pitch
Les différentes technologies d’écrans vidéo et de projecteurs de cinéma numériques exploitent la synthèse additive des couleurs. Pour capter et diffuser les images, un trio de couleurs primaires (rouge, vert et bleu) est filmé puis affiché pour chaque point de l’image (chaque pixel). Toutes les couleurs du spectre visible ne sont pas captées ni diffusées, en tout cas actuellement. Les espaces colorimétriques définissent, nous allons le détailler, les couleurs qu’il est possible d’enregistrer et d’afficher.
La fidélité de l’ensemble de la chaîne depuis l’objectif jusqu’à l’écran dépend des capacités à reproduire les dégradés des tonalités entre les tons les plus sombres et les plus clairs, ainsi que les couleurs. Calibrer un écran c’est s’assurer que les couleurs sont reproduites fidèlement, les différents niveaux de gris et également le point blanc.


Pourquoi est-il important de calibrer un écran ?
Évoquons rapidement ce débat, très souvent engagé dans les discussions autour de la calibration. Le respect colorimétrique semble naturel dans le cadre feutré des salles de cinéma. À l’inverse certains producteurs d’images destinées à une diffusion sur Internet ou les réseaux sociaux affirment vouloir travailler dans les conditions de visionnage de leur public. Ils justifient ainsi l’utilisation d’écrans « communs » sans se soucier de leur calibration. Voici deux contre-arguments importants.
Comment choisir les couleurs et la luminosité d’un film sans référence à laquelle se fier ? Effectivement, de nombreux écrans grand public, surtout lorsqu’ils sont mal réglés, peuvent afficher des images trop claires et affublées de dominantes colorées, par exemple trop rouges. Mais les spectateurs sont habitués aux défauts de leurs écrans. L’œil ayant une forte caractéristique d’adaptabilité, il compense également partiellement ces dérives.
Imaginons maintenant que des images soient étalonnées sur ce même écran sombre et rouge. Une compensation sera naturellement apportée aux images qui deviendront trop lumineuses et prendront une dominante cyan. Lorsque cette image sera visionnée par une autre personne sur un écran lumineux et à tendance naturelle bleutée, le rendu sera catastrophique ! La calibration est importante.

L’œil
Toute réflexion sur le sujet de la calibration part de l’œil. Toutes les images sont captées, conçues, truquées, corrigées et étalonnées selon ses caractéristiques. C’est un outil complexe qui fonctionne en symbiose avec le cerveau pour observer les images qui l’entourent. Comment analyse-t-il les couleurs et la lumière ?
Les flux lumineux le pénètrent par un ensemble optique composé de la cornée et la pupille, avant d’atteindre la rétine, notre capteur. Ce sont les différentes cellules, appelées cônes et bâtonnets en raison de leurs formes, qui mesurent la quantité de lumière et discriminent les couleurs. Les 120 millions de bâtonnets sont achromatiques : ils voient en noir et blanc. Ils sont responsables de la vision en très basse lumière, couvrent les domaines scotopiques et mésopiques jusqu’à leur saturation. Les cônes sont responsables de la vision photopique et partagent la vision mésopique avec les bâtonnets. Sous le niveau d’éclairement moyen des écrans ce sont les cônes qui sont en œuvre.

La couleur
Il y a trois types de cônes dits LMS, pour long, medium et short, avec chacun un pic de sensibilité pour des longueurs d’ondes différentes. Physiquement, la lumière est représentée par un flux de photons, selon des rayons permettant les calculs optiques. C’est également une onde électromagnétique, comme le sont les ondes radio, wi-fi ou TV. Les ondes sont caractérisées par une fréquence, mais dans le domaine visible, il est plus courant de les exprimer selon leurs longueurs d’onde. Chacune correspond à une couleur pure, entre 380 et 780 nm (nanomètres). L’œil n’est pas uniformément sensible aux différentes couleurs, mais sa réponse spectrale prend la forme d’une courbe en dos de dromadaire.
Dans le domaine qui nous concerne (photopique), à partir d’environ 3 cd/m2, la sensibilité passe par un pic à 555 nm. Celui-ci se décale vers 507 nm pour les plus basses lumières (vision mésopique). Les cônes ont des sensibilités spectrales différentes, centrées sur les longueurs d’ondes autour de 420-440 nm pour les S (bleu), 530-540 nm pour les m (vert) et 560-580 nm pour les rouges.

Captation et diffusion de la couleur
- CIE RGB et XYZ 1931
Que se cache-t-il derrière ces chiffres et ces lettres ? 1931 est une date importante pour l’audiovisuel. C’est l’année où la Commission Internationale de l’éclairage ou CIE (International Commission of Illumination) a défini les deux systèmes colorimétriques issus de mesures expérimentales de la sensibilité spectrale de l’œil humain. Les deux espaces colorimétriques CIE 1931 RGB et CIE 1931 XYZ sont deux outils encore très largement utilisés pour gérer la reproduction des couleurs.
William David Wright et John Guild les ont déduits d’expériences menées sur un panel d’utilisateurs. Ces derniers étaient invités à faire correspondre les couleurs obtenues à l’aide d’un monochromateur (unique longueur d’onde) avec le mélange de trois couleurs primaires rouges, vertes et bleues judicieusement choisies. Les longueurs d’ondes étaient choisies pour correspondre à l’ensemble des couleurs du spectre visible. Trois courbes CMF (Color Matching Functions) résultent de ces expériences. Elles ont l’inconvénient de présenter des coefficients négatifs. Bien évidemment, lors de l’expérience, des couleurs négatives ne pouvaient pas être utilisées. Une des trois couleurs primaires était en fait ajoutée à la lumière analysée pour obtenir l’ensemble des correspondances.

- XYZ et xyY
Grâce aux lois de Grassmann exprimant la (quasi) linéarité de la perception colorimétrique humaine, différents espaces colorimétriques peuvent être linéairement déclinés entre eux. L’espace XYZ dérive de l’espace RGB avec plusieurs buts. Il s’affranchit notamment des coefficients négatifs et le « canal » Y est défini pour représenter la luminance. La courbe CMF du canal Y, ӯ (λ) correspond à la courbe d’efficacité lumineuse photopique V() de l’observateur CIE standard. L’espace XYZ est un espace colorimétrique universel qui contient l’ensemble des espaces colorimétriques. Ses primaires sont imaginaires, elles ne peuvent pas être physiquement générées. Cet espace peut être utilisé pour l’archivage.
Les espaces RGB ou XYZ sont à trois dimensions. Il est difficile de les exploiter pour présenter schématiquement les couleurs et les espaces colorimétriques comparativement au spectrum locus qui est l’ensemble des couleurs visibles par l’œil humain. L’espace xyY a été conçu pour cela. Il sépare le diagramme de chromaticité (x,y) et la luminance. Une couleur est donc décrite par sa luminance et sa chromaticité. Le passage entre XYZ et xyY se fait via de simples équations.
Dans le diagramme de chromaticité, le spectrum locus est la représentation de l’ensemble des couleurs visible par l’homme. Il est contenu dans une forme souvent comparée à un fer à cheval. La ligne courbe affiche les longueurs d’ondes pures entre 380 et 700 nm. La droite qui rejoint ses deux extrémités est dite ligne des pourpres ou encore droite des « minus vert ». Les points qui la composent ne correspondent pas à des longueurs d’ondes pures, mais à un mélange du rouge et du violet pur. Ils peuvent également être caractérisés par la longueur d’onde verte de la droite passant par le point blanc et coupant la lignes courbe des longueurs d’ondes visibles.

Le point blanc
En plus des primaires, on définit au sein du spectrum locus la ligne des points blancs où se situent les blancs émis par les écrans selon les balances des blancs des différentes normes.
Les différents espaces colorimétriques
Ce sont les lois de Grassmann, déjà évoquées, qui affirment que toute couleur peut être reproduite par trois primaires en équilibrant leurs coefficients respectifs, C=r.R+v.V+b.B. Les espaces colorimétriques sont définis par les coordonnées de trois couleurs primaires et d’un point blanc, placés au sein du spectrum locus. L’ensemble des couleurs que peut reproduire un certain espace colorimétrique est compris au sein du triangle ayant pour sommet ces trois couleurs. Hormis la lumière théorique équiénergie, dont l’énergie est constante sur l’ensemble du spectre, les lumières blanches présentent une dominante colorée caractéristique de leur équilibre énergétique.

Le corps noir
Les physiciens ont conçu un objet théorique pour décrire les concepts : le corps noir. Il absorbe toute l’énergie électromagnétique et donc toute la lumière. Lorsqu’on le chauffe suffisamment, il émet une lumière dans le spectre visible. Selon la température, il présente une dominante de couleur. La loi de Planck indique la luminance du corps noir en fonction de la longueur d’onde pour une température de couleur donnée (exprimée en Kelvin) dont on peut déduire des courbes spectrales. La température de couleur est exprimée en Kelvin. On peut mesurer la température de couleur équivalente d’une lumière réelle grâce à un thermocolorimètre.
Le lieu des corps noirs est une courbe sur le diagramme de chromaticité CIE 1931 (x,y) qui précise la chromaticité de la lumière qu’il émet selon la température de couleur. En plus des trois primaires, les espaces colorimétriques sont définis par les coordonnées de leur point blanc lié à la température de couleur équivalente d’une image blanche émise via un écran affichant cet espace.

Origine des primaires
Les primaires initialement choisies aux débuts de la télévision en couleur aux États-Unis (NTSC) étaient basées sur la chromaticité des silicates de phosphores disponibles permettant la création du plus large espace colorimétrique. Bien qu’élégant sur le papier, ce choix posait une difficulté pour les constructeurs de télévisions à tubes cathodiques. L’efficacité de ces primaires, principalement dans le vert, était très limitée, et par conséquent la luminosité possible des écrans l’était aussi. Les constructeurs ont très vite choisi d’autres phosphores plus efficaces. D’autres espaces ont été définis, tels que celui de l’EBU (Tech 3213) au lancement de la télévision couleur en Europe en 1967, puis le SMPTE ‘C’ RP145 (Recommended Practice).
Parmi les derniers espaces exploités en audiovisuel. Les chromaticités des primaires de la télévision en définition standard sont définies dans la recommandation BT.601 de l’UIT-R, plus connue sous les abréviations BT. 601 ou Rec.601. Ceux de la haute-définition le sont sous la norme Rec.709. Ils sont plus larges, mais les spécialistes s’accordent à dire que l’élargissement de gamut entre la SD et la HD aurait pu être plus ambitieux.
L’espace colorimétrique du cinéma numérique est le DCI-P3, définit par le DCI (Digital Cinema Initiative) et publié par la SMPTE dans (Society of Motion Picture and Television Engineers) dans les SMPTE EG 432-1 et SMPTE RP 431-2. Il couvre 45,5 % des chromaticités de l’ensemble du diagramme CIE 1931 xy et 86,9 % du pointers gamut. Le point blanc du DCI-P3 correspond à une température de couleur de 6 300 K qui s’éloigne de la trajectoire du corps noir et est légèrement plus vert, pour une meilleure efficacité de projection avec les lampes au xénon. L’espace de l’avenir est déjà là, c’est le Rec.2020. Conçu avec des couleurs monochromatiques pures (rouge : 630 nm, vert : 532 nm et bleu : 467 nm), il couvre 75,8 % de l’espace colorimétrique CIE 1931 et la quasi-totalité du pointers gamut.

Pointers gamut
C’est une représentation largement reconnue du placement des couleurs des objets présents dans la nature autour de nous. Il a été publié en 1980 par Michael R. Pointer basé sur 4 089 échantillons.
Il faut bien comprendre le gamma !
Les écrans des premiers téléviseurs étaient des CRT (Cathod Ray Tube) ou écrans à tubes cathodiques. Leurs courbes de réponse lumineuse (EOTF – Electro Optical Transfer Function) logarithmiques étaient naturellement compensées par celles des premières caméras, également à tubes cathodiques. La réponse globale de l’ensemble caméra-écran était naturellement linéaire jusqu’à l’introduction des caméras CCD au début des années 80, qui étaient naturellement linéaires. Une courbe d’encodage gamma était appliquée au signal pour compenser celle des écrans cathodiques. Toutes les technologies d’écrans actuels, Led, Oled, QLed, LCD, sont linéaires. Une courbe de simulation de gamma a dû y être intégrée. Elle est décrite sous la recommandation UIT-R BT.1886 qui complète la recommandation UIT-R BT.709-5 plus connue sous l’abréviation Rec.709 pour l’encodage du signal HDTV.
Le début d’une réelle courbe gamma présenterait un gain trop important pour pouvoir être implantée dans l’électronique des écrans. Une section linéaire a donc été prévue dans l’équation d’encodage scindant le signal en deux parties selon son niveau. Les niveaux de luminance diffusés via les écrans ou les projecteurs sont différents des niveaux réels des scènes captées, surtout en SDR (Standard Dynamics Range), ou les valeurs de luminosité d’affichage ont été définies par rapport aux possibilités des écrans cathodiques (environ 100 cd/m2 ou 100 nits).
La réponse et la dynamique de l’œil humain étant liées aux niveaux de luminosité moyens, les courbes des gammas et de compensation de gamma présentent une réponse globale non linéaire répondant mieux aux conditions de visionnage des téléviseurs. C’est pour cela que des valeurs de « gamma » différentes ont été choisies selon les exploitations : cinéma (2,6), télévision (2,4), informatique (2,2).

Gamma, réponse de l’œil, courbes Log, HLG et PQ
L’œil humain a une réponse également approximativement logarithmique. La correction de gamma intégrée à l’encodage du signal vidéo dans les enregistreurs des caméras est un héritage des écrans cathodiques, mais c’est également une aide précieuse pour réduire le bruit dans les tons sombres et optimiser la quantification du signal numérisé. En encodage linéaire, les 219 pas séparant les hauts et les bas niveaux de l’échelle des gris seraient insuffisants. La séparation entre chaque niveau doit être inférieure au seuil de différence de luminosité perceptible (JND ou Just Noticeable Difference). Les courbes Log, exploitées par les caméras, sont des courbes appliquées au signal vidéo pour augmenter les possibilités d’étalonnage du signal vidéo enregistré avec un codec « traditionnel » (même s’il est conseillé de choisir des codecs en 10 bits en captation « Log »). Les formats HDR s’accompagnent de nouvelles courbes EOTF : HLG pour Hybrid Log Gamma et PQ pour Perceptual Quantizer.

Delta E
La calibration des écrans consiste, nous allons le détailler dans la suite de ce dossier, à mesurer les paramètres d’un écran pour permettre, via l’utilisation de profils ICC ou de matrices autrement nommées Lut, à adapter sa réponse pour qu’ils correspondent à des normes. Les paramètres mesurés sont ceux que l’on a présenté ci-dessus, primaires et points blancs (en x,y), courbes EOTF (gamma). Lors de la vérification de la réponse de l’écran, la fidélité de l’affichage de patchs de couleurs est mesurée. Cette mesure se caractérise par le terme delta E. En première approche, lorsque le delta E est inférieur à 2, la différence de couleur est imperceptible par l’œil humain.
Parie 2 à paraître la semaine prochaine – Extrait du dossier « La calibration » paru pour la première fois dans Mediakwest #46, p. 70-84