Julien, pouvez-vous présenter l’origine du projet « Plateau Virtuel » ?
Pendant le confinement, après avoir été impressionné par les démos d’ILM sur Star Wars : The Mandalorian [la série phénomène créée par John Favreau], j’ai commencé à travailler sur la technologie Unreal Engine et nDisplay, sans but précis. Sur Internet, des particuliers réussissent à faire bouger des petites choses, des petits triangles avec un simple tracker.
Le matin je donnais des cours à mes enfants, et l’après-midi étant assez libre, j’ai acheté un PC et des trackers HTC Vive. J’ai commencé à galérer chez moi ! Pour avancer il fallait mettre les mains dans des lignes de codes : j’ai tenu le coup.
Au bout de dix jours, j’ai réussi à faire bouger une scène depuis mon iPhone et le tracker au-dessus. J’en ai fait une story sur les réseaux sociaux, et très vite des réalisateurs ont réagi : « C’est cool, mais je ne comprends pas trop ce que tu fais. » J’ai répondu : « C’est génial, on va pouvoir recréer des golden hours à volonté. »
C’est à ce moment que j’ai appelé Bruno Corsini en lui proposant de passer à des tests à grande échelle. Bruno est éclairagiste de concerts et d’événements. Nous nous sommes rencontrés chez Yaël Naïm. J’ai toujours voulu intégrer des gens du spectacle en tant qu’électro pour animer la lumière différemment. Il connaissait très bien l’équipe de Novelty, notre partenaire, qui a tout de suite joué le jeu et nous a prêté des écrans.
Avec Bruno et à l’aide de Novelty, nous avons décidé de créer l’entité plateau virtuel (qui n’a pas encore de cadre juridique) puis Olivier Saint-Hubert nous a rejoints ; il nous a beaucoup aidés dans les premiers moments.
Novelty est une très grosse société d’évènementiel, mais son directeur technique, Nicolas Salvigny, et toute son équipe, nous ont accueillis comme s’ils étaient une petite boîte. Leur réactivité et leur état d’esprit m’ont impressionné. Il nous a complètement ouvert les portes pour explorer et tester les outils.
Le projet est-il un POC (Proof of concept) ?
C’est exactement ça : nous avions juste l’envie d’explorer une technologie prometteuse et passionnante. Bruno et moi ne connaissions pas, à la base, la 3D, à la différence d’Oliver Saint-Hubert, opérateur de mapping 3D sur les bâtiments. Il a compris beaucoup plus vite que nous certaines fonctionnalités et nous a permis d’évoluer beaucoup plus rapidement.
Avant d’aborder la technique, peut-on aborder l’histoire artistique du film ?
James F. Coton est un réalisateur que je suis depuis longtemps. J’aime son univers immersif et stylisé remixant manga et années 80 avec des codes très actuels et beaucoup de rythme. En voyant mes stories, il m’a invité à contacter un de ses amis, Romain Bourzeix de Spline/Dseed, qui s’intéressait également de près à cette technologie et exploite un robot dédié à la prise de vue.
Nous avons immédiatement sympathisé, avec la volonté d’explorer la solution sans cadre spécifique, en mode start-up. Rapidement nous avons pensé qu’il nous faudrait un film fondateur démontrant notre savoir-faire de belles images et les possibilités narratives, créatives et économiques de cet outil.
Pouvez-vous nous en dire un peu plus sur le film ?
C’est un film « petit et grand budget ». Nous disposions de moyens importants dans les écrans, d’une belle caméra, d’optiques, d’un robot et de nombreuses personnes motivées ; mais de peu de moyens pour le reste. Le temps a été limité pour la réalisation des décors 3D et réels. Le réalisateur a dû s’adapter.
L’histoire est celle d’une jeune fille que l’on va apprendre à connaître en entrant dans son subconscient. Nous voulions changer souvent de décors, ce qui est compliqué en prise de vue réelle. Grâce à Bruno, Naomi du groupe Ibeyi et Slimane Dazi ont accepté de se greffer au projet. Ce film a été un vrai melting pot en perpétuelle évolution.
On a également été confrontés à des questions auxquelles on avait moins pensé : Peut-on changer l’exposition de l’écran en direct, le soleil ou les ciels ? Outre le tracking du décor, ce qui m’a le plus impressionné c’est la possibilité de piloter un plafond de 50 m2 totalement paramétrable comme s’il était composé de Skypanel.
Quelles difficultés principales avez-vous rencontrées durant votre périple ?
Après mes essais concluants à la maison, devant sept personnes de Novelty et Bruno, rien ne marchait sur la première démo. C’était en fait un problème de configuration du point zéro et des distances dans Unreal Engine. La communauté en ligne m’a beaucoup aidé à résoudre le problème. Même si le premier tracker « prosumer » que nous avons utilisé fonctionne très bien au vu de son tarif, nous allons changer de système, car nous avons rencontré de vraies limitations sur ce point.
Nous avons également dû trouver le juste milieu entre le réalisme et la fluidité des scènes. Olivier avance rapidement sur ce point, notamment avec les gens d’Epic, pour mieux conformer et optimiser les scènes. Ce POC nous a également énormément servi à prévoir nos futurs investissements informatiques et matériels.
Lors des premiers tests, nous avions des soucis avec les écrans, mais grâce à l’expertise des techniciens de Novelty, tous les problèmes de flicker et de moiré ont été réglés.
Pour exploiter correctement cette solution vous utilisez nDisplay. Existe-t-il d’autres solutions ?
nDisplay est un plug-in inventé par un Ukrainien, puis racheté par Epic pour être intégré dans Unreal Engine. Il permet de projeter sur un écran ou via des projecteurs une sorte de fenêtre sur l’environnement 3D ; la caméra est traquée par rapport à cet environnement pour cadrer toujours le bon point de vue.
D’autres solutions, comme celles de la société anglaise Disguise, permettent d’ajouter une couche de réalité augmentée avec des avant-plans. Mais dans le cinéma cela fait très vite faux ; on préférera placer un décor réel en avant-plan. Nous suivons d’autres solutions actuellement adaptées à l’évènementiel qui pourront à l’avenir nous intéresser. Depuis le premier tournage nous avons développé avec Olivier des outils temps réel.
Sur le clip de Naza et Niska, quatre jours après le premier tournage, le réalisateur pouvait choisir sa texture depuis un catalogue, en temps réel, ainsi que le ciel, l’exposition, les textures et la position du soleil. Cela nous a permis une vitesse d’exploitation hallucinante.
Vous avez tourné un clip ?
En plus du projet démo fondateur, nous avons vendu une des premières prestations de clip musical réalisé ainsi en France, avec l’artiste Naza en collaboration avec Niska. Le réalisateur Guillaume Doubet voulait recréer une île. Nous avions prévu deux jours de tournage ; une seule a été nécessaire, complétée d’une journée préparatoire pour tester tous les petits gadgets qu’on venait de développer. Tout s’est déroulé avec une facilité déconcertante ; le réalisateur était aux anges.
La pre-light a duré une demi-journée pour les trois décors et les effets souhaités. Le shooting a été rapide et les artistes étaient vraiment contents de ne pas avoir à attendre. À chaque changement de décor nous étions très rapidement prêts, évitant ainsi les latences d’un tournage traditionnel. Le décor a été pensé dans un esprit dessin animé avec un rendu contrasté, une image « américaine » style début des années 2000. Nous avons recréé une jungle avec trois pots de fleurs en décor réel posés sur des flight cases de caméras.
Peut-on revenir sur le système de tracking que vous avez utilisé ?
Actuellement on utilise le système Prosumer HTC Vive, qui marche étonnamment bien pour le budget, mais qui doit évoluer dans un environnement dégagé. Lorsqu’on commence à ajouter des acteurs, un décor et des éclairages, les limites se font sentir.
Nous pensons investir dans une solution de tracking optique Ncam Reality qui nous permettra de nous adapter au décor, par exemple dans une fausse maison où les écrans Led seraient vus à travers les fenêtres. Nous allons acquérir un système de genlock pour synchroniser toute la chaîne : la caméra, l’ensemble des ordinateurs et les panneaux Led. Nous exploitons pour cela des cartes Quadro de Nvidia.
Pouvez-vous nous parler du serveur média utilisé par Bruno pour l’éclairage ?
La première fois qu’on a mis le plafond Led en place, on a « chargé » une belle scène avec un grand ciel bleu pour recréer le plein jour. Sous les écrans, nous étions tout bleus ! L’expérience d’éclairage de concert de Bruno a été déterminante. Il a décidé de bypasser Unreal Engine avec une couche de media server pour le plafond et les petits panneaux sur roulettes.
Nous pouvions y afficher ce que nous voulions, soit par-dessus Unreal Engine, soit en le coupant totalement. 99 % de la démo et du clip ont été éclairés ainsi. On a juste ajouté quelques lumières et quelques contres. Le media server (de marque française – Modulo Pi), nous a permis de faire des carrés ou des ronds lumineux au plafond de n’importe quelle taille et de n’importe quelle couleur et d’aller très rapidement dans la mise en place de l’éclairage.
Depuis, nous avons développé un outil pour permettre la communication entre le media server et Unreal Engine en DMX. L’électro peut ainsi piloter l’ensemble de la lumière depuis sa console en associant les lumières des deux solutions. Nous sommes en train de créer une « machine à produire en virtuel » ultra efficiente.
Comment avez-vous collaboré avec Romain Bourzeix et ses sociétés Spline et Dseed ?
Romain s’intéresse depuis longtemps à la production virtuelle. La collaboration et le partage des tâches se sont faits naturellement.
Dans le domaine des VFX, beaucoup de choses fonctionnent avec des aplats et on souhaitait vérifier si cela allait fonctionner sur ce projet. C’est une méthode très pratique en termes de gain de temps, et il faut également rester proche des méthodes habituelles des VFX. Il faudra cependant adapter les concepts. Ils ont parfaitement pris en charge la partie production et les décors étaient très réussis.
Un métier va être fortement impacté, celui de décorateur.
Pour ce type de prestation, les décors réels doivent être une prolongation du décor 3D. Sur la démo, dans la scène Tokyo, Olivier a ajouté un petit dos d’âne à l’intersection de l’écran et de notre sol. En jouant avec les lumières nous avons réussi à obtenir une sorte de prolongement en cassant le côté dur du cube. Dans la même idée, D-Seed avait créé des poteaux en 3D, pile au coin des écrans.
Avez-vous la possibilité d’intervenir sur l’image après le tournage ?
On a les mêmes possibilités que pour des tournages en réel avec du travail de rotoscopie. Mais nous pouvons exploiter une autre solution pour obtenir le meilleur des deux mondes : en trackant un mini fond vert dans l’angle de vue de la caméra. Cela permet de profiter de tous les éclairages, des réflexions avec l’avantage du fond vert.
En tant que chef opérateur, souhaitez-vous continuer à tourner en réel ?
Je pense vraiment que tout ce qui peut être tourné en réel doit l’être, pour bénéficier des aspérités du vent, de l’humidité et de l’air ; tout ce qui fait qu’on est dans une sphère qui vit ! On bénéficie ainsi des erreurs heureuses qui se passent en réel. C’est un outil dédié aux scènes impossibles à réaliser en réel, concurrent des studios fond vert.
Pour des projets qui demandent beaucoup de décors, c’est juste génial. Pour une fiction ou une série, cette technologie apporte le confort du studio avec une infinité possible de décors dans une météo et une lumière contrôlées.
Comment souhaitez-vous commercialiser cette offre ?
On imagine mettre en place un studio de taille moyenne, disponible à la location ou, selon les projets, pouvoir déplacer les écrans autour de points éphémères de production. Nous pourrons proposer également une solution clé en main pour équiper des productions ou d’autres studios sur des projets plus longs.
Vous pouvez découvrir le Clip de Plateau Virtuel ici et la Making off là…
Lulien Lascar vous présente également son Plateau virtuel dans un Talk SATIS TV intitulé « Présentation de « Plateau Virtuel » par Julien LASCAR
Article paru pour la première fois dans Mediakwest #38, p. 27-31. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors série « Guide du tournage) pour accéder, dès leur sortie, à nos articles dans leur intégralité.
[envira-gallery id= »117805″]