You are currently viewing L’implication majeure d’Epic Games dans la production virtuelle
Tournage de « The Mandalorian » avec deux axes de caméras. © Industrial Light & Magic - Lucasfilm Ltd

L’implication majeure d’Epic Games dans la production virtuelle

Nous avons été chaleureusement, et de manière dématérialisée, accueillis par Ben Lumsden et Roel Bartstra. Ben est business development manager et son domaine d’expertise et d’intérêt est le média et le divertissement « hors jeux vidéo » : principalement le cinéma et la télévision. Roel a rejoint l’équipe d’Epic au début du mois de juillet en tant que solution architect. Il intervient principalement en pré-vente lorsque les échanges deviennent plus techniques.

 

Pouvez-vous présenter brièvement à nos lecteurs Epic et Unreal Engine ?

La compagnie Epic Games réalise des jeux vidéo depuis 25 ans et conçoit des outils technologiques depuis 21 ans. Notre fondateur et CEO, Tim Sweeney, a créé Unreal Engine en tant qu’outil d’édition de niveaux de jeux vidéo. Il est sorti simultanément au jeu Unreal en 1996. Depuis lors, Epic Games est resté un studio qui fait ses propres jeux (Unreal, Gears of Wars, Fortnite) et un fournisseur d’outils pour ses confrères développeurs et créateurs de contenus.

 

Quel est le coût du moteur de rendu Unreal Engine ?

L’intégralité d’Unreal Engine est disponible sous forme de code source sur Github. Les usagers qui l’utilisent pour créer des jeux vidéo versent une redevance de 5 % de leur chiffre d’affaires après le premier million de dollars perçu. L’utilisation d’Unreal Engine à l’extérieur du jeu vidéo est entièrement gratuite.

 

Comment gagnez-vous de l’argent dans les domaines du cinéma et de la télévision ?

Il n’y pas de coût direct ou de redevance pour utiliser Unreal Engine pour le cinéma ou la télévision. Nous offrons un service de support de très haute qualité qui est payant, bien que modeste en coût, et qui est bien sûr optionnel. Dans le domaine du broadcast, nous avons également un réseau de partenaires qui offrent des solutions intégrées basées sur Unreal Engine, comme Zero Density, Pixotope, Brainstorm, Avid ou même Disguise.

 

Quelle est votre implication dans cette nouvelle technologie de studios virtuels autour des écrans Led et du moteur de rendu Unreal Engine ?

Nous sommes impliqués dans le marché du broadcast à travers nos partenaires ; par exemple, TF1 et France Télévisions font tous les deux appels à eux pour l’utilisation d’Unreal Engine pour leurs décors virtuels.

Dans le domaine de la fiction et de la publicité, nous supportons directement des projets de mur d’écrans Led pour faire des effets visuels en temps réel, similaires à ce qui a été fait pour The Mandalorian [la série phénomène créée par John Favreau, NDLR]. Unreal Engine et sa technologie nDisplay permettent de gérer des murs de très grande taille et de formes différentes et notre rôle est de transmettre le savoir-faire à nos usagers pour gérer correctement à la fois la continuité géométrique, la couleur et la latence du système.

Ces techniques sont extrêmement populaires à cause de la pandémie car elles permettent de reproduire de nombreux lieux de tournage virtuellement, sans voyager. De plus, nos techniques de collaboration en ligne multi-usagers permettent de diminuer le nombre de personnes présentes sur le plateau, ce qui est très important au vu de la distanciation sociale nécessaire et des restrictions imposées par la pandémie.

 

Pouvez-vous nous présenter des évolutions majeures de la production virtuelle ?

Nous avons déjà une boîte à outils très complète avec Unreal Engine 4.25 incluant l’exploration de site multi-usager en réalité virtuelle, la gestion simultanée de toutes les fonctions créatives pour le plateau, les accessoires, les caméras et lumières, l’intégration avec les systèmes de tracking de caméras, etc.

Nous avons des modes avec fond vert minimisé (pour minimiser la postprod) mais ce que tout le monde veut, c’est la finalisation de l’image en temps réel dans le viseur de la caméra, « comme au bon vieux temps », et cela requiert de notre part tout un travail constant sur l’amélioration de la fidélité visuelle d’Unreal Engine.

La démo Unreal Engine 5 donne une idée de nos objectifs en termes de qualité d’image et de complexité des scènes rendues en temps réel.

 

Quelle est pour vous la différence fondamentale des studios virtuels par rapport à un tournage sur fond vert ?

La différence principale est que l’équipe créative sur le plateau, incluant les acteurs, sait exactement quelle image elle va obtenir et cela améliore grandement la qualité artistique. Toute l’équipe a la même vision du projet, toute l’équipe est immergée dans le projet.

La réduction voire l’élimination de la postproduction impacte favorablement, et le calendrier, et le budget. Les murs Led représentent un investissement, mais il est largement justifié par les gains de qualité et les réductions de temps de productions et de budget.

 

Avez-vous rencontré des limitations ?

Il s’agit d’une technique très nouvelle, et nous sommes toujours en mode apprentissage avec nos usagers, nous commençons à mieux comprendre les projets qui fonctionnent bien avec ce procédé. Il y a beaucoup de détails à maîtriser pour avoir un résultat de qualité.

Les murs vidéo qui sont créés le sont habituellement pour être vus de loin par des humains, pas pour être scrutés par des caméras de très haute résolution. Nous comprenons mieux maintenant quel matériel utiliser (caméras, panneaux, processeurs, etc.).

D’autre part, on n’a jamais assez de puissance de calcul instantanée, donc il faut une équipe de créateurs de contenus 3D qui comprenne bien comment fonctionne un moteur de jeu, (et ce n’est pas courant chez les prestataires 3D en effets spéciaux).

Un des gros changements qui vient avec la production virtuelle c’est que tout le contenu doit être prêt avant le tournage, de la même façon qu’il fallait construire tous les décors avant le tournage il y a 70 ans.

 

Comment abordez-vous le problème du moiré ?

C’est intimement lié à la mise au point sur l’écran Led, à la distance de la caméra à l’écran et à la taille des lampes des panneaux Led. Nous avons quelques outils pour gérer cela.

Si la mise au point se fait sur les acteurs, le décor et donc les écrans Led étant alors légèrement « hors focus », cela simplifie beaucoup le processus. Si la totalité du décor virtuel est en focus, il faut alors faire un travail de mise au point plus sophistiqué et avoir le bon ratio de lumières Led qui atteignent le capteur de la caméra.

 

Avez-vous des conseils pour les personnes qui souhaitent commencer à utiliser votre technologie ?

Nous nous assurons d’avoir beaucoup de contenus explicatifs et éducatifs autour de notre technologie, le mieux est de télécharger le moteur, c’est gratuit, et de mettre les mains dedans !

La production temps réel implique de revisiter beaucoup de choses que nous prenions pour acquises depuis 25 ans dans le monde des effets spéciaux, mais les gains artistiques et financiers motivent beaucoup d’acteurs sur le marché, sans parler de l’allègement des contraintes dues au Covid-19.

Notre site uevirtualproduction.com propose beaucoup de ressources dédiées à la production virtuelle, incluant notre « virtual production field guide » qui fait référence en la matière. Notre plate-forme de formation en ligne, gratuite elle aussi, offre de nombreux cours pour démarrer avec Unreal Engine et se perfectionner.

Concernant le matériel, on a généralement besoin de beaucoup de mémoire vive (selon le type d’installation, la taille des écrans, etc.). Pour les travaux multi-utilisateurs, si vous souhaitez pouvoir effectuer des changements rapides sur site, avec une réponse fluide du moteur de rendu, nous recommandons l’utilisation d’ordinateurs équipés de processeurs avec un grand nombre de cœurs, tels que des Intel Xeon ou des AMD Threadripper.

Si vous pilotez de nombreux écrans, et qu’ils doivent être synchronisés, il est important d’utiliser des cartes Nvidia Quadro équipées de cartes Quadro sync. Habituellement nos utilisateurs exploitent des cartes Quadro 6000, qui disposent d’un maximum de puissance de ray-tracing (lancer de rayon). Il y a également la Quadro 8000, mais elle est inutile pour la majorité des utilisateurs.

 

Comment peut-on se former à Unreal Engine ?

Il y a de très bonnes ressources pour les personnes qui souhaitent débuter leur exploration de l’univers Unreal sur notre site. Il y a un portail de formation en ligne avec de très nombreux tutoriels et notre chaîne YouTube. Nous recommandons toujours aux utilisateurs de débuter avec de simples écrans et leur ordinateur.

« C’est ainsi que nous avons débuté sur The Mandalorian, nous avions une simple figurine et une télévision, puis nous avons placé une seconde TV comme plafond. » Il suffit de disposer d’un tracker : de nombreuses personnes utilisent le HTC Vive, mais tout autre modèle peut fonctionner.

 

Comment les utilisateurs professionnels peuvent-ils vous contacter ?

Grâce au lien suivant : www.unrealengine.com/en-US/get-now/non-games

 

POUR EN SAVOIR PLUS

• Mini-site production virtuelle :

https://www.unrealengine.com/en-US/programs/virtual-production

 

• À propos du tournage de The Mandalorian :

https://www.unrealengine.com/en-US/blog/forging-new-paths-for-filmmakers-on-the-mandalorian

 

• Formation en ligne à Unreal Engine :

https://www.unrealengine.com/en-US/onlinelearning-courses

 

• Epic MegaGrants, un soutien financier proposé par Epic à des projets créatifs et technologiques :

https://www.unrealengine.com/en-US/megagrants

 

• Utilisation d’Unreal Engine pour le cinéma et la télévision :

https://www.unrealengine.com/en-US/industry/film-television

 

• Groupe Facebook indépendant autour de la production virtuelle avec Unreal Engine :

https://www.facebook.com/groups/2456259641280347/

 

Article paru pour la première fois dans Mediakwest #38, p.36-38. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors série « Guide du tournage) pour accéder, dès leur sortie, à nos articles dans leur intégralité.

[envira-gallery id= »117826″]