You are currently viewing Histoire de l’étalonnage
L’émir de Boukhara, photo de Sergei Mikhailovich Prokudin-Gorskii (1911). © DR

Histoire de l’étalonnage

  • Auteur/autrice de la publication :
  • Post category:Abonné / Talents

 

Dès le premier numéro de votre magazine Moovee, vous avez été nombreux à nous suivre dans l’univers du montage. Cela nous a invité à poursuivre l’exploration d’une discipline qui surfe naturellement sur les crêtes des évolutions technologiques, allant jusqu’à les provoquer pour s’offrir un plus vaste terrain d’expression : l’étalonnage.

Nous vous proposons une exploration bipolaire, technique et artistique, toujours humaine et sensible, via cette série d’articles haute en couleur que nous inaugurons avec ce flashback.

 

En matière d’étalonnage, on différencie deux principales phases. La première, plus « technique », concerne la correction de l’image : réglages des contrastes et de la balance des blancs, correspondance colorimétrique entre les plans d’une scène et les différentes scènes d’un film. Dans les pays anglo-saxons, deux noms sont utilisés de manière interchangeable : color correction et color grading. Ce dernier terme évoque un travail plus artistique : création de look et travail ciblé sur certaines zones de l’image et sur certaines couleurs.

Aujourd’hui l’évolution des outils autorise les étalonneurs à sculpter de très nombreux attributs de l’image : couleurs, contrastes, saturation, détails, balance des blancs, mais aussi ajout de flous, de flou de mouvement, de matière, de grain, d’effets visuels sur toute l’image ou des zones précises, application de Lut, travail sur différents formats d’images (log, Raw). La frontière est mince entre le monde de l’étalonnage et celui des effets spéciaux et du compositing. Le premier emprunte de nombreux outils au second. Il est courant de mélanger plusieurs images, de la matière, un ciel, la mer, du sable…

L’étalonnage est art et technique. Aujourd’hui accessible à tous, son évolution est en fait très récente dans l’histoire du cinéma. La numérisation a bien entendu profondément modelé le tournage et le montage des images, mais la pellicule offrait déjà de grandes possibilités expressives dans ces deux domaines. Mais, peut-être encore plus que pour les effets spéciaux, très peu de possibilités étaient offertes aux cinéastes avant l’ère du numérique pour jouer sur le contraste et la couleur des films.

De nombreux vidéastes ont longtemps cherché à copier l’esthétisme du cinéma mais, avant l’ère du « digital intermediate » (lire ci-après), ce sont les cinéastes qui ont jalousé les possibilités colorimétriques créatives de la vidéo, pourtant balbutiantes.

Pour s’éloigner de l’esthétisme naturel de la pellicule, des actions irréversibles devaient être tentées « à l’aveugle » dans les laboratoires. Ces procédés sont devenus des noms d’effets bien connus de vidéastes n’ayant, pour beaucoup, jamais côtoyé la pellicule.

Le bleach bypass, l’effet colorimétrique (peut-être le plus célèbre), consiste à omettre lors du développement la phase de nettoyage de l’argent qui reste dans l’émulsion de la pellicule, provoquant la superposition d’une image en noir et blanc à l’image couleur, un contraste accru et une saturation réduite.

Le cross color processing est l’inversion du développement des différentes primaires, permettant de provoquer des virages chromatiques. D’autres méthodes consistent à modifier artificiellement les processus de développement : les durées ou les températures. Bien entendu, aucun retour en arrière, aucun « pomme Z », aucune annulation n’était autorisée.

 

La couleur au cinéma

Entre 1855 et 1872, le scientifique James Clerk Maxwell (1831-1879) a publié une série de recherches sur la perception et la théorie de la couleur. En 1861, il a projeté la première photo en couleur à l’occasion d’une présentation à la Royal Society of London. Il démontra la base théorique des systèmes d’affichage, toujours d’actualité. Toutes les couleurs peuvent être reproduites par le mix de couleurs rouges, vertes et bleues.

Le premier film colorisé à la main a été produit par Edison en 1894. Dans Serpentine Danse, réalisé par William Kennedy Laurie Dickson, les voilages de l’héroïne Annabelle changent de couleur alors qu’elle danse.

Peu de temps après, en 1899, Edward Raymond Turner a breveté le premier procédé de cinéma en couleur basé sur un procédé de synthèse additive des couleurs et testé sur une image fixe en 1902. Le système exploitait un filtre rotatif avec des zones rouges, vertes et bleues pour exposer les unes après les autres, trois images d’une pellicule noir et blanc panchromatique (sensible à l’ensemble des couleurs). Malheureusement, les démonstrations prouvèrent les difficultés rencontrées par l’inventeur pour aligner correctement les différentes couleurs et obtenir un résultat satisfaisant.

 

Le Kinemacolor

Le Kinemacolor, créé par George Albert Smith, était également basé sur la captation de photogrammes noir et blanc, ici exposés à une cadence de 32 images par seconde au travers de filtres rouges et verts et grâce à un système rotatif. Il a été dévoilé en 1906 avec la projection du film A Visit to the Seaside avant d’être utilisé pour la captation d’une série de films documentaires.

En France, les frères Lumière ont également activement participé à l’aventure de la couleur au cinéma. En 1904, ils ont déposé le brevet de leur procédé « Lumière Cinecolor » de photographie couleur avec des plaques autochromes (ancêtre d’une pellicule) recouvertes de zones filtrées par des grains d’amidon rouges, verts et bleus. Ils ont utilisé ce procédé dans les années 1920. La belle caméra Gaumont 35mm trichrome a aussi son brevet. Celui-ci, obtenu le 12 février 1912, stipule : « Cinématographe perfectionné pour projections en couleurs naturelles par le procédé trichrome ».

 

Technicolor

Ce nom est également synonyme des débuts de la couleur au cinéma. En 1915, le premier procédé de la Technicolor Motion Picture Corporation combinait deux pellicules panchromatiques (sensibles à l’ensemble des couleurs) exposées selon les couleurs rouge et verte par l’entremise d’un prisme séparateur de couleurs. Les deux films négatifs étaient collés ensemble. Le premier film utilisant cette technologie fut The Gulf Between.

La compagnie fit évoluer son procédé en une deuxième version en 1921, selon un procédé de synthèse soustractive des couleurs, puis en 1926, avec des pellicules à colorants. En 1932, le quatrième procédé Technicolor passe de deux à trois couleurs. Il a été utilisé pour la première fois sur le premier dessin animé oscarisé de Walt Disney, Des arbres et des fleurs.

Le premier long métrage de fiction en Technicolor « trois couleurs » est Becky Sharp (1935). La caméra ayant servi sur le tournage est conservée à la cinémathèque française. Deux énormes succès du cinéma, Autant en emporte le vent et Le magicien d’Oz ont été tournés en Technicolor en 1939.

 

Hazeltine : l’analyseur de couleurs de la pellicule

L’étape de l’étalonnage colorimétrique en pellicule, avant l’exploitation de « digital intermediate » que nous allons présenter par la suite, était nommée aux États-Unis « color timing ». Il était très difficile de créer un look « différent » de l’esthétique naturel du film choisi. L’ajustement des couleurs et de la lumière, depuis le film négatif jusqu’à la copie finale, était limité à une action sur les trois couleurs primaires rouge, vert et bleu. La correction se déroulait à l’étape de développement du film dans un laboratoire photochimique. Une projection était faite en présence de l’équipe créative du film et du technicien du laboratoire, ce dernier prenant note des demandes artistiques de ses clients.

Le principal outil utilisé à partir du milieu des années 60 était l’Hazeltine. Cet analyseur de couleurs permettait de visualiser sur une sorte d’écran de télévision, l’image du film inversée, scannée à partir du négatif. Différents filtres permettaient de densifier ou d’éclaircir l’image et de modifier la balance des couleurs primaires avec cinquante pas de correction autour du réglage neutre. Une augmentation des valeurs densifiait les filtres de « l’imprimante » utilisée pour la génération du film positif afin de corriger des images trop exposées (trop lumineuses). Une réduction de la valeur des filtres servait à corriger des images sous-exposées.

En pellicule, il était très difficile de récupérer des images sous-exposées. À l’inverse, la pellicule se comportait avec les hautes lumières d’une manière non linéaire, en compressant le signal enregistré. Selon les procédés de développement et les pellicules, une correction d’un diaph (doublement de la lumière) correspondait à un réglage de sept à douze pas de corrections (printer point) sur l’Hazeltine.

Les données de correction étaient généralement enregistrées sur des bandes perforées pour régler la génération du film positif par une impression « contact » avec le négatif, les deux films étant superposés pendant l’opération. Kodak proposait une machine concurrente de l’Hazeltine avec un procédé légèrement différent.

 

Tout vient de la télévision

C’est la télévision qui a ouvert de nouvelles perspectives pour les coloristes. Au début du broadcasting (diffusion de programmes télévisés à large échelle), il n’était pas possible de conserver les programmes autrement que sur pellicule. Pour les diffuser en différé, notamment pour les chaînes de télévision couvrant différents fuseaux horaires, il a fallu inventer un système.

Les broadcasters voulaient profiter du catalogue de films de cinéma pour compléter leurs grilles de programmes. Les premiers télécinémas nommés « films chain » étaient simplement composés de caméras vidéo filmant la projection d’un film. Le kinescope a été inventé pour les programmes de télévision filmés avec des caméras vidéo et permettait ainsi le passage inverse de la vidéo vers le film : l’enregistrement d’un programme TV sur pellicule.

C’est à ce moment de l’histoire qu’un travail sur la couleur s’est imposé. Les limitations du système ont nécessité l’intégration d’une solution de correction colorimétrique agissant sur le signal vidéo.

 

Télécinéma

Avant l’arrivée des capteurs CCD (charge-coupled device), les télécinémas utilisaient des systèmes à tubes cathodiques devant lesquels défilait la pellicule. Le faisceau électronique projeté sur la surface du tube y excite le phosphore qui le tapisse pour créer un « spot » lumineux de la taille d’un pixel. L’image est scannée de gauche à droite et de bas en haut grâce aux mouvements combinés des déplacements du faisceau d’électrons et de la pellicule. Le flux lumineux est ensuite séparé en composantes primaires rouges, vertes et bleues par des miroirs dichroïques avant d’être convertis en signal vidéo grâce à des tubes photomultiplicateurs (PMT) recueillant les photons qui s’y engouffrent.

A partir de 1956 (lire l’article sur les techniques du montage dans Moovee n°2) l’arrivée du magnétoscope Quadruplex VRX1000 d’Ampex autorisa les premiers enregistrements sur bande magnétique. Sur les modèles de télécinéma à CCD, une lumière blanche traverse le film et les trois composantes RVB sont séparées par un prisme optique avant d’illuminer chacune un capteur dédié à une couleur primaire : les données obtenues servent à générer le signal vidéo.

 

CINTEL

Originellement nommée Cinema Television Ltd., la compagnie britannique fondée par John Logie Baird en 1927 à Ware dans l’Hertfordshire a été renommée Rank Cintel en 1958 lors de son achat par J. Arthur Rank. L’entreprise était spécialisée dans la construction de télécinémas d’abord analogiques puis numériques.

Parmi les références, on trouve les Ditto, DataMill film scanners, Millennium HD, Scan’dal et les modèles à traitement entièrement numérique Ursa et Ursa Gold. L’arrivée du Spirit DataCiné (SD, HD, data) commercialisé par Philips, en 1996, amorce le déclin de la marque.

Avant de mettre les clefs sous la porte, Cintel a proposé des innovations marquantes, à l’image d’Oscar (renommé Oliver), un système révolutionnaire de nettoyage optique des poussières et des défauts. En 2012, Blackmagic a acquis les actifs de Cintel.

 

TOPSY

Le premier modèle de télécinéma permettant une action sur les couleurs est le Rank Cintel MKIII CRT. L’opérateur jouait pour cela sur le gain des trois tubes photomultiplicateurs et donc sur les trois couleurs primaires. Le Rank Cintel Topsy (Telecine Operations Programming System), commercialisé en 1978, est le premier système de contrôle des couleurs. Le célèbre Amigo succèdera à Topsy.

 

DaVinci Classic

D’autres constructeurs ont commencé à proposer leurs propres solutions de correction colorimétrique. C’est ainsi qu’est apparu pour la première fois en 1984 le nom de DaVinci Systems, avec une interface de pilotage des couleurs du Rank Cintel MKIII gérée par ordinateur, le DaVinci Classic. Ce dernier succédait au Wiz construit en 1982 par VTA (Video Tape Associates) autour d’un ordinateur Apple : le programme tenait sur une simple puce électronique Eprom de faible capacité et les décisions d’étalonnage étaient sauvegardées sur cassettes.

Le Wiz était la première solution proposant un panel externe, des corrections primaires internes et dix vecteurs de corrections secondaires ciblant certaines couleurs. Initialement prévue pour une utilisation au sein des propres studios de postproduction de VTA, Wiz pilotait les premiers télécinémas : Rank Cintel MKIII, RCA FR-35, Bosch FDL60.

À la demande du groupe de postproduction américain Editel, VTA commercialisa sa solution, avant de donner à sa branche R&D VTA Technologies le nom de DaVinci Systems. On doit à DaVinci de nombreux produits et innovations, notamment des interfaces de contrôles et des télécommandes.

Parmi les références hardware connues, on trouve les modèles DaVinci Renaissance, 888, 2K et 2Kplus. En 1992, ce sont les courbes personnalisées (custom curves) et les power windows (formes géométriques délimitant des étalonnages) qui ont été introduits.

En 1998, la grande nouveauté est la création de la DaVinci Academy pour accompagner le besoin croissant de professionnels. En 2001, les dossiers de mémoires d’étalonnages PowerGrade et les galeries ont apporté une fluidité appréciée par les étalonneurs.

 

Avid Symphony

L’historique fabricant et éditeur américain, concepteur de la station de montage Avid Media Composer, très utilisée depuis les débuts du montage virtuel et jusqu’à aujourd’hui dans le monde du cinéma, a sorti sa propre solution dédiée à l’étalonnage en 1998. C’est en fait une version de son logiciel de montage avec une option « non compressée » incluant des outils avancés de correction colorimétrique.

Commercialisé à partir de 150 000 €, l’intérêt principal de cette solution était sa fluidité d’intégration aux workflows exploitant Media Composer pour le montage. Avec Symphony, les opérations de conformation étaient réduites au minimum. Aujourd’hui, Symphony est une option logicielle du logiciel de montage.

 

Digital intermediate

Ce terme symbolise un nouveau cap dans l’évolution technologique de la correction colorimétrique, le moment où la résolution des « scan » des films pellicules devient assez bonne pour qu’ils servent d’intermédiaire de travail avant le retour sur film.

En 1993, Kodak développa la solution de DI (Digital Intermediate) Cineon : un système d’acquisition, de manipulation et de retour sur film. Le terme « digital intermediate » est devenu générique pour ce type d’opérations.

Quantel proposa peu de temps après Kodak son propre outil, le Domino. Bernard et Bianca au pays des kangourous (1990, Hendel Butoy et Mike Gabriel) et Blanche-Neige et les sept nains (1993, David Hand) furent les premiers à exploiter cette technique.

Deux autres films ont fortement poussés les possibilités de cette technologie : Pleasantville (1998, Gary Ross), le premier film complètement étalonné en numérique et O’Brother (2000, Joel et Ethan Coen). Le film a été scanné par un Spirit DataCine 2K, son étalonnage réalisé à l’aide du correcteur Pandora MegaDef sur un Virtual DataCine et le retour sur film (master internégatif) opéré sur une imprimante laser Kodak Lightning II.

Progressivement, la majorité des films ont utilisé cette technique. En 2005, Quantel a lancé sa célèbre solution Digital Intermediate Pablo.

 

Tournage numérique

Le début des années 2000 fut marqué par l’arrivée des caméras de cinéma numériques. Un des premiers modèles, la Viper (2002), proposée par Thomson, disposait d’une sortie log en 4:4:4. De nombreux constructeurs parmi lesquels Red, Arri, Sony ont proposé des modèles grands capteurs à haute dynamique et des capacités toujours plus impressionnantes. Ils ont participé au déclin de la pellicule et de ses laborieuses étapes préalables à la postproduction et à l’étalonnage. Le premier film d’une « major » hollywoodienne entièrement tourné en numérique est un Star Wars : L’attaque des clones (2002, George Lucas).

 

Logiciels d’étalonnage

Parallèlement à la numérisation du tournage, l’exponentielle croissance de la puissance des ordinateurs et notamment des cartes graphiques a ouvert la voie d’une nouvelle génération de solutions d’étalonnage logicielles basées sur des ordinateurs standards.

Un des premiers modèles, le Colorfront Colossus devenu Discreet Lustre, fut suivi par Assimilate Scratch, SGO Mistika, FilmLight’s Baselight, Nucoda Film Master et Iridas Speedgrade. En 2003, Silicon Color développa Final Touch, alors qu’Apple introduisait son correcteur colorimétrique à trois voies dans Final Cut Pro.

En 2004, DaVinci Systems commercialisait sa nouvelle génération d’outils en s’orientant également vers une solution logicielle avec DaVinci Resolve. C’était la première utilisation en étalonnage d’une station PC « traditionnelle » multiprocesseurs qui permettait un travail en temps réel et en résolution 2K. Un outil propriétaire de up-conversion de la définition standard vers la haute définition, le 2K ou le 4K était très utile à cette période charnière entre plusieurs formats.

 

De nombreuses acquisitions

Apple racheta Silicon Color en 2007 pour intégrer Color dans Final Cut Studio 2. La propriété intellectuelle de DaVinci fut acquise par Blackmagic en 2009. C’est au tour de Speedgrade d’Iridas d’être acheté par Adobe en 2011.

Les solutions logicielles ont apporté des fonctionnalités plus puissantes pour les corrections secondaires, notamment le suivi (tracking) de zones à corriger. Et pour répondre aux flux les plus exigeants (très haute résolution, HDR, Raw), certaines solutions exploitent des stations multiprocesseurs et plusieurs cartes graphiques regroupées en cluster.

 

Fin de la pellicule

Le 2 avril 2013, Fujifilm annonça l’arrêt de la production des pellicules dédiées au tournage de films, noir et blanc, couleurs, négatifs, positifs et « intermediate », les films dédiés à l’archivage « digital » étant toujours produits. Dans le monde entier, les laboratoires ont progressivement disparu. En 2014, Le Loup de Wall Street fut le premier film hollywoodien entièrement numérique. Aucune sortie ne fut proposée en pellicule.

 

Nous avons vu que l’arrivée des télécinémas représente un véritable tournant dans le besoin d’étalonnage ; c’est la naissance d’une nouvelle discipline commençant à passer des mains de techniciens vers les mains d’artistes de la couleur. Il fallait adapter le contraste et la grande dynamique de la pellicule négative pour l’adapter au contraste réduit de la vidéo.

Au début du XXIe siècle, les étalonneurs faisaient partie d’une famille restreinte de professionnels hautement qualifiés et accessoirement bien payés. Une station d’étalonnage professionnelle, par exemple un système DaVinci Resolve complet, avec son pupitre, coûtait de 250 000 à 1 millions d’euros. Puis, le développement des solutions logicielles a démocratisé les outils les plus professionnels.

Aujourd’hui, les prix ont bien entendu fortement chuté, le mouvement ayant été initié par Apple Color, puis poursuivi par le très célèbre DaVinci Resolve, disponible dans une version complètement fonctionnelle gratuite. Bien entendu, il faut prendre en compte l’ensemble du matériel nécessaire pour une salle d’étalonnage professionnelle sérieuse : les écrans calibrés, les stations informatiques suffisamment dimensionnées et les surfaces de contrôle. Cette évolution a bouleversé le paysage professionnel.

Aujourd’hui, les étalonneurs sont plus que jamais aux prises avec les évolutions en cours dans l’audiovisuel et le cinéma. Après la course aux pixels, ce sont les autres paramètres responsables de la qualité des images qui vont s’étendre : la cadence des images, la dynamique avec le HDR (High Dynamic Range) et l’espace colorimétrique. Nous allons revenir en détail sur ces points dans la suite de notre dossier.

 

Article paru pour la première fois dans Moovee #6, p.64/70. Abonnez-vous à Moovee (6 numéros/an) pour accéder, dès leur sortie, à nos articles dans leur intégralité.

[envira-gallery id= »12056″]