Le directeur de la photographie Florian Hoffmeister (BSC), avec le concours du technicien ingénieur Florian Maier (Stereotec), ont relevé avec succès les défis artistiques et technique de ce nouvel opus de la série tournée dans le cercle polaire…
Florian Hoffmeister a été confronté à des conditions extrêmes (froid, nuit, vent) pour la lumière de cette saison 4 de True Detective : Night Country. Tournée en Islande, la série impressionne par son univers visuel rendu possible par un procédé original de double caméra.
Stéphan Faudeux : Pour commencer, pouvez-vous expliquer la genèse de ce projet ?
Florian Hoffmeister : Nous nous sommes rencontrés sur la préparation de la nouvelle saison de l’anthologie américaine True Detective, un monument de la télévision. Elle a fait ses débuts il y a dix ans. Cette quatrième saison est écrite et réalisée par Issa López, une cinéaste mexicaine, et est divisée en six épisodes ; j’ai participé à chacun d’eux. L’histoire se déroule de nuit en Alaska, mais nous avons réalisé le tournage en Islande. L’histoire prend place aux alentours de Noël, une période surnommée « la nuit éternelle » en Alaska, du fait qu’il ne fait jamais vraiment jour. Le soleil se couche, mais même s’il éclaire un peu le ciel en journée, il ne franchit plus la ligne d’horizon. L’Islande est un peu plus basse que l’Alaska, donc l’aube y pointe, mais très peu. Les conditions de vie y sont très similaires à celles de l’Alaska.
S.F. : Ce n’est pas trop déprimant ?
F.H. : C’est très beau, en fait. Le ciel est d’un bleu superbe lorsqu’il fait « jour », si on peut appeler ça comme ça. Voici donc le décor de l’histoire. Bien sûr, les personnages doivent résoudre une enquête. Ils se lancent à la recherche de scientifiques disparus et les retrouvent gelés. Il y a aussi beaucoup de surnaturel, des relations houleuses, rien ne manque.

S.F. : Oui j’ai vu la série. Comment avez-vous restitué cette claustrophobie nocturne ?
F.H. : Alors vous voyez de quoi je parle. Dès le début, l’une de mes préoccupations était de représenter la relation entre les personnages et leur environnement : il existe bien sûr un sentiment d’isolement très fort, et puis l’obscurité a quelque chose de menaçant. Nous avions le choix entre plusieurs approches pour les séquences filmées en extérieur. L’une d’entre elles était de munir l’acteur d’une lampe frontale, seule source de lumière qui fait disparaître tout le reste. Mais cela produit un effet très marqué, donc on ne peut pas en abuser. Sans compter qu’on perd le sens des proportions du décor. L’autre possibilité serait l’utilisation de projecteurs de forte puissance placés en hauteur. Seulement j’ai rapidement appris qu’il y a énormément de vent en Islande. Dès le début, le chef éclairagiste du coin m’a averti qu’il ne serait probablement pas toujours possible d’utiliser ce type d’éclairage. C’est un problème récurrent là-bas.
J’ai donc commencé à réfléchir à d’autres moyens de retranscrire ce sentiment d’isolement, tout en laissant aux spectateurs des traces du paysage et de ses proportions. Le film Nope était sorti peu de temps auparavant, quand nous étions encore en phase préparatoire. Le directeur de la photographie avait utilisé une technique similaire, mais dans un but différent. C’est de là qu’est venue l’idée d’utiliser deux vues de la même image grâce à deux caméras distinctes, dont une à infrarouge.

D’un point de vue pratique, imaginons que je me tiens sur un lac gelé et que je regarde mon personnage, qui porte une lampe frontale. Je dois réfléchir à un moyen de créer de la profondeur. Il est impossible d’élever des projecteurs en hauteur à cause du vent, j’en suis donc réduit à les placer en demi-cercle autour de ma scène pour créer l’illusion que plus on s’éloigne, plus il fait sombre. Seulement, si j’utilisais un éclairage standard, mon personnage en premier plan serait très fortement éclairé.
L’idée pour créer de la profondeur est donc d’utiliser des projecteurs à infrarouges et une caméra à infrarouges qui ne capture que cette longueur d’onde. En parallèle, une seconde caméra standard filme le même plan et capture uniquement le personnage avec sa lampe frontale. On combine ensuite les deux images en postproduction.
Toute la phase préparatoire s’est faite en été, une saison où il ne fait jamais nuit en Islande. Ce n’était pas le choix le plus logique. Environ trois ou quatre semaines avant le début du tournage, nous nous sommes équipés d’un rig 3D permettant de fixer les deux caméras et sommes montés sur un glacier pour profiter d’environ une demi-heure d’obscurité vers 23h30. J’ai filmé un test très simple qui m’a permis de déterminer deux choses. Premièrement, l’idée tenait la route. Deuxièmement, il nous fallait absolument un spécialiste pour manipuler le rig 3D, car on ne savait pas du tout comment s’y prendre.
Notre premier assistant-opérateur revenait d’un tournage à Budapest et il y avait rencontré Florian. Entre le vent et le parallélisme, il avait un mal fou à faire fonctionner le rig, rien ne marchait, c’était un désastre. Il m’a dit qu’il connaissait l’homme qu’il nous fallait, je l’ai appelé, il est venu. Ça a été le début d’une belle collaboration.

S.F. : Quel type de rig utilisiez-vous, un « côte à côte » ou un rig à miroir ?
Florian Maier : Un rig à miroir. La production avait envoyé un vieux rig à Florian [Hoffmeister] pour le premier test, loué à une entreprise de Londres et qui devait prendre la poussière sur une étagère. Personne ne savait s’en servir. C’était un vieux rig d’un de nos concurrents, que je ne nommerai pas. L’alignement est très difficile à réaliser sur ces systèmes quand on ne dispose pas de l’interface mécanique nécessaire, mais il est crucial. Florian m’a donc appelé, m’a expliqué son idée en me précisant que nous lui avions été recommandés par son premier assistant caméra, qui connaissait des gens avec qui nous avions travaillé sur les effets spéciaux de Dune : Deuxième partie. C’est comme ça que la connexion s’est faite. Nous avons utilisé notre rig léger Stereotec et deux Alexa LF pour ce projet. Pour le premier test, il me semble que nous avons utilisé une Alexa 35 et une Mini LF, car nous n’avions que ça à disposition sur le moment. Il a juste fallu ajuster l’image.
F.H. : C’est ça. Après notre prise de contact, nous avons organisé un second test. Comme la saison avait avancé entretemps, il faisait plus sombre à Reykjavik et nous pouvions tourner en soirée. Nous avons demandé au département des effets spéciaux d’étaler de la neige. Nous avions déjà le modèle classique d’Alexa, qui capte la lumière infrarouge. C’est pour ça que nous l’avions choisi. Nous avons réalisé notre premier vrai test : l’alignement était parfait et le résultat très intéressant, très prometteur… mais nous avons tout de même compris qu’il nous faudrait deux caméras du même modèle.
F.M. : Avoir deux caméras différentes posait problème à cause du Qtake et du système de playback. Nous étions obligés de zoomer sur une image pour faire coïncider les champs de vision. Pour ce genre de configuration, il est beaucoup plus logique d’utiliser le même modèle de caméra en double. Nous nous sommes organisés pour avoir deux LF pour le tournage, une à infrarouge et une normale. Nous en parlions justement il y a une semaine ou deux, je crois que nous avons utilisé un objectif Sigma Prime.
F.H. : Une chose importante à souligner est que nous nous efforcions de travailler de manière à ne pas perturber l’atmosphère sur le set. C’est un tournage d’ambiance et non technique, il doit rester centré sur les acteurs. Nos tests devaient servir à trouver une solution au changement d’objectifs, une opération difficile par -10°C avec des vents à 50 km/h. Il nous fallait un système aussi compact et infaillible que possible, d’où la décision d’utiliser les objectifs Sigma qui nous permettaient de passer du grand format au mode Super 35, qui a un champ de vue plus réduit, sans avoir à changer manuellement d’objectif. Nous avions des objectifs Sigma grand format sur deux Alexa Mini LF.

F.M. : La difficulté d’obtenir le même cadrage, la même mise au point sur les deux caméras, c’est que l’une d’elles captait les infrarouges qui sont sur une longueur d’onde différente. Cela a une influence sur la mise au point. La profondeur de champ aussi. Il a fallu faire des ajustements à toutes les distances de manière à ce que la mise au point des deux objectifs corresponde toujours, ça nous a pris plusieurs heures, voire une demi-journée, pendant la phase préparatoire. Nous avons bien sûr un logiciel avec une LUT qui nous permet d’enregistrer une multitude d’images clés pour chaque objectif et les réglages correspondants pour l’autre. Le décalage entre les deux n’est pas fixe, contrairement à ce qu’on pourrait penser : il évolue selon la mise au point. Il fallait trouver la correspondance infrarouge pour chaque point, et bien sûr elle n’est pas inscrite sur l’objectif. Seulement nous avons fait tout ce travail préparatoire en intérieur, et quand le tournage a commencé en extérieur, il faisait -10°C, voire -20°C quand nous avons filmé de nuit. Pendant que Florian était occupé à autre chose, nous nous sommes rendu compte que la différence de 30 degrés, c’est-à-dire de 20°C à -10°C, avait un tel effet sur les objectifs qu’elle faussait complètement toutes les données de notre LUT.
Et comme nous filmions de nuit, le diaphragme pour l’infrarouge était complètement ouvert, ce qui veut dire que le moindre écart de mise au point saute aux yeux. Une ouverture de diaphragme à f/5.6 ou f/8 pardonne davantage, parce que la profondeur de champ est plus grande, mais le diaph était si ouvert que nous avions une profondeur de champ beaucoup plus faible : c’est beaucoup plus dur à gérer. Mon assistant et moi avons pris une LUT pour retrouver la mise au point à toutes les distances. Heureusement, ça a été rapide, donc nous étions prêts quand Florian en a eu besoin, mais nous nous sommes rendu compte du problème que pouvait causer le grand froid : il gèle les objectifs. Enfin, tout est rentré dans l’ordre, les deux objectifs correspondaient au pixel près.

S.F. : Est-ce qu’il s’agissait de plans statiques ou bien la caméra était-elle en mouvement ?
F.H. : Ces prises-là étaient statiques, c’était surtout des plans larges sur le paysage. Nous avons réalisé une séquence test en mouvement dans les pires conditions imaginables. C’était une nuit où le vent soufflait très fort, il faisait -20°C. On a installé les dollies sur des traîneaux qu’on tirait pour les mettre en position. On en était venus à croire qu’on n’arriverait pas à filmer.
Ce qui est intéressant, c’est que j’ai travaillé il y a quelques années sur une série appelée The Terror, dont l’histoire se déroule également en Arctique, mais nous l’avons filmée entièrement dans un studio. Les gens se demandent parfois pourquoi on se complique autant la vie avec la technique à filmer dehors, mais c’est le seul vrai moyen d’obtenir une texture authentique. Le vent, la neige, tout ce qui est filmé par la caméra… C’est quelque chose de très difficile à reproduire artificiellement. Sans compter les mouvements des acteurs. C’était une belle séquence.
Cette idée d’utiliser une technique d’éclairage à la lumière infrarouge pour créer deux rendus du même plan est fascinante et a énormément de potentiel. Barney Curnow dirigeait l’équipe des effets spéciaux, il a beaucoup de talent. Il avait en tête une séquence qui n’a finalement pas été gardée, et qui aurait montré une longue discussion entre des personnages en train de se promener le long de la côte. La mer aurait été gelée, bien sûr. Sans aller jusqu’à devoir rotoscoper les personnages, il fallait tout de même trouver comment poser des marqueurs dans un tel paysage. Et Barney l’aurait filmé avec un rig 3D. Une caméra aurait filmé un plan large pour capturer tous les marqueurs des éléments à rajouter en postproduction, et la seconde aurait filmé un plan rapproché, sans aucun marqueur à recouvrir, mais qui garderait toutes les informations nécessaires. C’est un autre exemple de solutions offertes par ces rigs.
S.F. : Avez-vous également utilisé une caméra Arri LF pour les autres plans standard ?
Non, nous utilisions une Alexa 35. Le nouveau modèle.
S.F. : Et avez-vous utilisé les textures d’Arri pour la LUT ?
F.H. : Oui, Arri nous a préparé une texture spéciale pour le tournage qui était directement incrustée.
S.F. : Vous êtes-vous inspiré de photos, de peintures ?
F.H. : Nous avons une relation différente à la lumière quand on est habitué à vivre dans le noir. Elle s’associe davantage à une forme de survie. Il m’a suffi d’un hiver pour le remarquer moi-même. Chez moi, à Berlin, je vis dans une semi-pénombre. En Islande, j’allumais toutes les lampes. On recrée presque le jour et la nuit. J’ai donc pris le parti que, pour les scènes éclairées, la lumière devrait parfois être presque trop forte, et au contraire, lorsqu’il faisait sombre, les ténèbres devaient arriver de manière brutale. Cela crée un contraste très fort.
Par ailleurs, je suis tombé sur le travail d’un photographe russe, Alexander Gronsky. Il a fait toute une série sur les villes minières russes dans le cercle arctique, et ça correspond tout à fait. C’est très beau, avec des masses imposantes, des éléments très accentués. Son travail a été une source importante d’inspiration.
S.F. : Comment regroupez-vous ensuite les deux plans en postproduction et quelle était votre source d’inspiration pour l’étalonnage ?
F.H. : Combiner les deux images du rig était un processus très simple ; il suffisait de les fondre ensemble. C’est l’étalonneur qui s’en chargeait. Enfin, je dis que c’était simple parce que c’est l’impression qu’il me donnait. À l’exception d’un plan où il a fallu faire un peu de rotoscoping sur la caméra couleur, nous n’avions pas besoin d’effets visuels. Je fais généralement des tests en amont du tournage pour trouver comment obtenir le rendu final, de sorte que ça ne soit plus un problème plus tard et qu’on puisse se concentrer sur les détails. Le chef coloriste d’Arri nous avait confectionné une LUT que nous avons rapportée à la société de postproduction Goldcrest à Londres.

S.F. : Combien de temps vous fallait-il pour préparer le rig avant de tourner ?
F.M. : Une fois que tout est installé, entre une et deux heures. À côté de ça, changer d’objectif et refaire l’alignement est très rapide, ça prend quelques minutes tout au plus.
Voici l’image capturée par la caméra à infrarouges et celle capturée par la caméra standard. Avec la caméra standard, on ne voit que le personnage et un halo de lumière autour de lui, tout le reste est plongé dans le noir, de sorte qu’on n’a aucune idée de ce qui l’entoure. Grâce à la caméra à infrarouges, on peut éclairer l’arrière-plan sans toucher au premier plan, ce qui nous donne beaucoup plus de liberté sur le poids que l’on veut donner à l’arrière-plan dans le rendu final. De manière générale, cette technique ouvre la porte à de nouvelles discussions sur le processus créatif : on peut choisir quels détails donner aux spectateurs, ou encore régler le contraste avec l’arrière-plan, ce qui serait impossible autrement.
D’habitude, on installe d’immenses projecteurs qui créent toujours de l’ombre sous l’objet au premier plan. L’éclairage par infrarouges présente l’avantage énorme d’éviter les excès de lumière ou les ombres qu’un éclairage traditionnel risque parfois de causer en arrière-plan. Les spectateurs qui voient le résultat final pourraient se demander comment l’éclairage a été géré, car il ne crée aucune ombre en premier plan. Le résultat est bien plus naturel que si on éclairait la scène avec deux gros projecteurs.
S.F. : Avez-vous utilisé des projecteurs à infrarouges ?
F.H. : Non, c’est le problème. Nous apprenions comment faire au fur et à mesure. Nous devions recevoir des projecteurs à infrarouges utilisés par les caméras de sécurité dans des espaces accueillant le public comme les stades de foot, mais entre le fait de devoir les importer en Islande, la fin du Covid et ce grand navire porte-conteneurs bloqué dans le canal de Suez, nous avons eu du mal à nous faire livrer du matériel.
La difficulté de travailler avec des projecteurs à infrarouges, c’est qu’on ne voit pas ce qu’on éclaire. Il faudrait faire plus de recherches avant d’utiliser cette technique à plus grande échelle, de manière à créer peut-être de petits appareils capables de voir où diriger la lumière.
Un autre inconvénient, ou disons un semi-risque, de la lumière infrarouge, c’est que notre œil est habitué à la percevoir en journée, quand notre iris est contracté. De nuit, quand l’iris est dilaté, regarder une source d’infrarouge en continu peut poser un risque pour les yeux. Il faudrait se tenir droit devant et le regarder en face, bien sûr, mais il n’empêche qu’avant de travailler à plus grande échelle avec les infrarouges il faudrait réaliser plus de recherches.
J’estime néanmoins que c’est une technique très intéressante. Elle donne un rendu très différent de la lumière. C’est presque un effet visuel. Nous en avons fait une utilisation très subtile, mais cela pourrait servir à concrétiser toutes sortes d’idées intéressantes. Même en journée, je trouve ça remarquable d’avoir deux caméras qui filment exactement le même plan au pixel près. C’est un outil superbe.
F.M. : Je crois que Florian a été le premier à l’utiliser de nuit pour la série de HBO, mais c’est cette technique de nuit américaine qui a été utilisée pour Nope. Cela permet beaucoup de choses. Par exemple, en Allemagne, les enfants acteurs n’ont pas le droit de tourner de nuit. Tout doit être filmé en journée. Dans beaucoup de films jeunesse, il y a une scène où des enfants explorent les ténèbres avec une lampe torche. Cette technologie permettrait d’obtenir une nuit américaine réaliste pour les films où ce n’est pas possible de tourner de nuit. Ça arrangerait beaucoup de gens. Sans compter qu’on n’a plus besoin d’énormes projecteurs. Il y a de nombreux avantages.
Le plus crucial avec cette technique est d’avoir un alignement au pixel près. Un objectif enregistre la lumière blanche, l’autre la lumière infrarouge, mais la concordance doit être parfaite, sans aucun décalage, au risque de créer des bords flous. C’est pourquoi nous devions avoir ces alignements parfaitement calibrés sur tous les axes, de manière à ne perdre aucun pixel lors des mouvements panoramiques. Il est important d’avoir un système stable pour ce niveau de précision.

S.F. : Avez-vous d’autres projets de stéréoscopie 3D en cours ?
F.M. : Oui, quelques-uns. Il y a beaucoup de demandes pour le Meta Quest et le Vision Pro d’Apple, les deux grands noms des casques de réalité mixte ; l’engouement pour la 3D est revenu à un niveau similaire à celui qu’il y avait à la sortie des premiers écrans 3D stéréoscopiques. Ceux-ci ne sont plus fabriqués, même LG a arrêté leur production en 2018. À présent, le Meta Quest et le Vision Pro permettent de regarder des vidéos spatiales en 3D, ce qui veut dire que vous pourriez regarder Avatar chez vous et retrouver l’expérience d’un cinéma Imax. Cela ouvre la porte à de nouvelles manières d’appréhender la 3D. La demande a explosé depuis l’annonce de la sortie du Vision Pro. Nous avions un tournage la semaine dernière, nous en avons encore deux simultanés la semaine prochaine… C’est super !
S.F. : Vous avez encore de la compétition avec les rigs ?
F.M. : Plus maintenant. Nos vrais concurrents étaient Pace et 3ality, qui possédaient des systèmes automatiques semblables aux nôtres. Les autres comme P+S Technik possèdent uniquement des rigs manuels qui ne sont pas utilisés sur des séries ou films à gros budget : le gros du marché, c’était toujours nous trois. Nous étions en concurrence pour un contrat sur Un jour dans la vie de Billy Lynn, pour lequel le réalisateur Ang Lee voulait de la 3D 4K à 120 images par seconde. C’est une qualité excellente qui rehausse vraiment l’expérience de visionnage, on croirait regarder par une fenêtre sans vitre, vraiment c’est très immersif. 3ality, Pace et nous étions en concurrence, mais c’est nous qui l’avons emporté. Par la suite, nous avons également participé à Gemini Man. 3ality a mis la clé sous la porte et Pace a vendu son équipement 3D à James Cameron qui l’utilise uniquement pour la franchise Avatar. Cela nous place dans une situation avantageuse. Bien sûr, avec l’évolution de la demande, il est possible que d’autres concurrents apparaissent.
S.F. : À votre avis, peut-on s’attendre à une renaissance de la 3D au cinéma, ou restera-t-on uniquement à la conversion de 2D à 3D ?
F.M. : Les deux me paraissent possibles. L’expérience du casque est incroyable, on atteint vraiment des sommets, mais elle n’offre pas les mêmes possibilités que le cinéma. On se rend généralement au cinéma avec ses amis, sa famille, on peut les voir, leur parler… Aller au cinéma est un événement, on y va parce qu’on veut passer la soirée avec ses proches. Ce genre de choses n’est pas encore possible avec un casque de réalité mixte, même si je pense qu’avec le temps, les casques évolueront de manière à ne pas isoler le spectateur de ceux qui l’entourent. Mais pour moi, la 3D pour le cinéma et la 3D pour les casques sont deux expériences distinctes qui ne sont pas vraiment en concurrence. On les utilise dans des buts différents. Et elles peuvent chacune avoir une influence positive sur l’autre.
EN BREF

True Detective est une série américaine produite par HBO, et imaginée par Nic Pizzolato. La première saison a été diffusée en 2014, et la nouvelle saison (qui est la saison 4) a été diffusée à partir de janvier 2024. Celle-ci suit un duo de femmes, les inspectrices Liz Danvers (Jodie Foster) et Evangeline Navarro (Kali Reiss) qui enquêtent sur la disparition mystérieuse de scientifiques d’une base de recherches arctiques en Alaska. Cette saison, sous-titrée Night Country se déroule durant l’hiver, période durant laquelle il fait nuit plusieurs semaines.
STEREOTEC A REALISÉ POUR ARRI UN TEST DE NUIT AMÉRICAINE

« Voici un effet de nuit américaine. Dans ce test, un filtre bloque la lumière visible et laisse uniquement passer les infrarouges. Le technicien tient une petite lampe de poche à infrarouges : elle n’émet rien pour l’objectif standard, mais on voit sa lumière avec l’objectif à infrarouges. Voilà ce qu’on obtient en combinant les deux images. Le rendu est beaucoup plus réaliste. Avec les infrarouges, le ciel s’assombrit. On peut donc utiliser cette image pour obtenir un ciel sombre et l’image standard pour récupérer toutes les informations de couleur. Combiner la luminosité de l’image IR et les couleurs de l’image normale donne beaucoup plus de liberté et ouvre le champ des possibles : en effet, toutes les informations sont préservées, rien n’est perdu dans les noirs. Par exemple, on pourrait décider en postproduction d’éclaircir un peu le visage, d’assombrir la camionnette ou les arbres en arrière-plan. On a un contrôle total sur l’image. C’est tout l’intérêt de cette technologie », précise Florian Maier.
Article paru pour la première fois dans Mediakwest #56, pp 12-20
[envira-gallery id= »144055″]