You are currently viewing Neoset pour Netflix ou la technologie au service de l’image
Le mannequin est plongé dans le décor virtuel, lors du défilé Dior homme de décembre 2020. © Neoset

Neoset pour Netflix ou la technologie au service de l’image

 

Quels sont les projets développés par Neoset ?

Il y a exactement un an, on était en R&D et nous avons eu notre premier client, Dior, en octobre 2020. Nos premiers clients sont venus du milieu de la publicité de prestige, capables de mettre beaucoup d’argent sur des technologies nouvelles. Nous avons enchaîné avec la série télé Balthazar pour TF1 afin de réaliser des installations sur mesure avec un mur Led. Par exemple, nous avons fait des découvertes pour éviter d’utiliser le fond vert, un décor de commissariat, etc. Le réalisateur nous avait demandé de sentir le changement de lumière avec la caméra qui tourne autour de l’acteur. La lumière des Leds a été utilisée sur le visage du comédien. Avec le rythme de la télévision, nous étions rodés en termes de workflow pour aller au plus vite.

 

Comment avez-vous travaillé sur le projet Netflix ?

On a été contacté par Mandarin qui avait entendu parler de notre technologie. Quand ils nous ont dit qu’ils allaient venir tester notre installation, on était au fond d’un hangar, avec des Leds modestes 3.9, ce n’était pas extraordinaire. Ils sont arrivés à quarante avec des camions. Au bout de dix minutes, ils ont été contents. Ensuite, Netflix a demandé des tests plus avancés en condition de temps réel. Il y a eu dix jours de préparation en condition à l’échelle 1. Nous avons eu une grosse pression sur les tests, qui se sont bien passés.

 

Quel moteur de jeu avez-vous utilisé ?

On a fait le choix de ne plus utiliser Unreal mais TouchDesigner qui est une sorte de langage de programmation adapté au mapping video. Avant on était sur Unreal, de manière exclusive, ce qui était une erreur parce qu’Unreal est extrêmement bien pour certaines choses, notamment la virtual production 3D – c’est-à-dire pour se promener dans le décor comme si on y était vraiment – mais pas pour tout. On s’est aperçu, en faisant beaucoup de tests, que certaines choses n’étaient pas faites pour le mapping. J’ai décidé de retourner à ce que j’avais déjà utilisé.

À la base, mon associé vient plutôt des plateaux de cinéma, moi, plutôt de l’image un peu technique et j’avais développé il y a deux-trois ans une technologie à peu près comme celle de Mandalorian mais pour de la vidéo et, pour ça, je n’avais pas utilisé de moteur vidéo mais le langage de programmation visuel TouchDesigner. C’est en voyant toutes les caractéristiques demandées par Netflix que je me suis dit qu’il fallait utiliser Touch. Il faut trouver des ponts entre les deux, plus ça va, plus on pilote Unreal avec Touch.

Grâce à Touch, on a pu coder pratiquement de zéro dans l’ordre qu’ils voulaient, dans le format de compression qu’ils voulaient, etc. On a pu être beaucoup plus souple avec ça. Nous avons réalisé beaucoup de tournages de pelures 360° où il a, à nouveau, fallu faire des tests, il fallait que ça marche dans tous les sens. On était partis sur des caméras VR 360° et finalement, on a pris six Red Komodo, des optiques Zeiss et une optique japonaise Antania axe 220°. On a fait un énorme travail de R&D pour ce film afin d’avoir une solution optimale. Netflix voulait la meilleure solution technique possible, quel que soit le coût. Notre seule contrainte était celle de la perfection.

Juste avant, nous avions à notre actif uniquement deux longs-métrages. Aujourd’hui, grâce à cet énorme effort de R&D réalisé pour ce film, les autres projets sur lesquels nous travaillons bénéficient de ces avancées. Maintenant, ce sont des questions qu’on maîtrise. On a pu se frotter au terrain et avoir des remontées d’infos du chef électro, du chef op et des VFX. Par exemple, pour le DIT, au début on avait une solution temps réel avec un outil qui n’était pas ergonomique, on l’a modifié pour quelque chose de plus fonctionnel, un peu à la Da Vinci.

 

Comment êtes-vous équipés ?

Neoset est un opérateur. On travaille toujours avec des partenaires, on ne possède pas de Led. Sur le film de Leterrier, on a démonté les panneaux du studio Kremlin qu’on a remontés en plus grand d’abord à Aubervilliers, puis à Stains. On a monté un 180 m2. On avait en plus un petit mur de neuf mètres pour une découverte pour une chambre d’hôtel.

Pour Netflix, on a démonté ce qu’on avait au Kremlin et on l’a remonté ailleurs pour ce film, plus un autre petit studio. Maintenant, tout est démonté. On travaille avec TSF et PRG à l’année au studio d’Épinay. Nous avons là-bas les mêmes Leds que Star Wars, c’est une installation très haut de gamme.

 

Quelles Leds ont été utilisées pour le projet avec Netflix ?

Il y a eu du travail sur les Leds avec des ingénieurs chinois. Théoriquement, les Leds sont en HDR mais ça n’a jamais réellement été utilisé en tant que tel et il a fallu faire le codage. Ce qui est super sur la partie R&D c’est qu’on a eu la base de connaissances de Netflix. Ils travaillent avec plein d’équipes très à la pointe dans le monde. Maintenant, il y a des documents qui sont accessibles publiquement, mais à l’époque ça n’était pas le cas. La partie R&D a donné accès à la pointe de la connaissance dans le monde. Assez tôt, Netflix a été d’accord pour nous envoyer des infos. Les différents prestataires se parlent et profitent des expériences des uns et des autres. Pour Netflix, il faut que ça soit la meilleure technologie possible. Maintenant qu’on sait le faire, on ne va pas descendre en gamme, ce qui était compliqué c’était la R&D.

On s’est posé la question de savoir si on achetait nos propres Leds, mais on s’est dit que ce n’était pas notre métier. Nous, on travaille avec les grands groupes qui peuvent investir. Les groupes qui possèdent des Leds ils investissent dans les concerts, plus lucratifs, et éventuellement, par passion ou par envie de prestige ou de découvrir de nouveaux marchés, ils vont utiliser leurs Leds dans le cinéma.

 

Quelle solution de tracking avez-vous choisie ?

On est toujours resté au moins cher et au plus simple. C’est toujours le même principe, si on investit dans des outils chers, il faut le refacturer au client derrière. Je ne suis pas sûr que les directeurs de production puissent absorber le coût d’une solution de tracking qu’on aurait achetée à 100 000 euros. Donc pour l’instant, presque tout ce qu’on a fait, on l’a fait avec du Vive. Ça marche étonnamment bien sur des surfaces assez importantes, on peut couvrir jusqu’à 100 m2 au sol, ça laisse pas mal de liberté au chef opérateur. On a travaillé et on travaille aussi en Stipes, qui est une solution assez chère mais qui fonctionne très bien avec Unreal et Touch. Quand on s’est lancé là-dedans, on pensait devoir utiliser des solutions tracking très chères et finalement on s’est dit qu’on allait chercher les limites des technologies de base et, tant que ça nous convient, pourquoi dépenser plus ?

 

Quel est le bilan de votre expérience avec Netlfix ?

Netflix et Mandarin nous ont fait confiance à partir d’un petit mur de Leds. On a réalisé des gros essais très chers, extrêmement gonflés d’un point de vue technique. Ils nous ont fait confiance parce qu’on leur a présenté les bonnes solutions. Ils nous ont fait confiance jusqu’au bout sur un film avec des grands enjeux. Je suis très admiratif que des grosses boîtes fassent confiance à des petites start-up comme la nôtre.

 

Extrait de notre dossier « L’essor des studios virtuels » paru pour la première fois dans Mediakwest #43, p. 64-86 

[envira-gallery id= »124144″]