You are currently viewing RAF-RADI, des rencontres très animées
Le compositing du long-métrage 3D (avec un rendu 2D) They shot the Piano Player de Fernando Trueba et Javier Mariscal a été réalisé avec le pipeline Libreflow mis au point par Les Fées Spéciales. © Les Fées Spéciales

RAF-RADI, des rencontres très animées

 

Créées à Angoulême il y a quatorze ans (en 2015 pour les RADI) à l’initiative du Pôle Image Magelis, les Rencontres de l’Animation (plus de 400 professionnels), qui ont dû refuser du monde, se sont tenues alors que le secteur du cinéma d’animation connaît une croissance de l’activité sans précédent et que des mutations sont attendues, aussi bien au niveau des métiers que des processus de fabrication.

Tandis que les RAF (Rencontre Animation Formation) décryptent les chiffres du secteur de l’animation, l’offre en formation initiale et continue, pointent de nouvelles problématiques liées à cette croissance (explosion des plates-formes et de la demande de contenus, pénurie de talents sur certains postes, décarbonation de la filière…), les RADI (Rencontres Animation Développement Innovation) se penchent sur les technologies émergentes et présentent de nouveaux outils souvent à l’aune des premiers retours d’expérience dans les studios d’animation mais aussi les entreprises et organismes de formation.

La capture volumétrique (ou vidéo volumétrique) a inauguré le cycle des tables rondes sur l’innovation. © 4DViews

Si le temps réel a fait l’affiche les années précédentes, deux techniques font aujourd’hui débat : l’intelligence artificielle au service de l’animation et la capture volumétrique qui vient enrichir l’offre de capture de mouvement (MoCap). Le rappel par ailleurs des dispositifs de soutien à l’innovation dans le cadre de l’Appel Choc de modernisation du CNC permet de revenir sur plusieurs studios d’animation qui ont développé de nouveaux et prometteurs processus de production.

 

Cap sur la vidéo volumétrique ?

La capture volumétrique (ou vidéo volumétrique) a inauguré, pour la première fois dans l’histoire des RAF-RADI, le cycle des tables rondes sur l’innovation. Cette technique de captation vidéo, qui associe à chaque point de l’espace un voxel défini en x, y et z, produit un double animé en 3D d’une personne humaine en reproduisant tous ses mouvements jusqu’au moindre pli de ses vêtements. Si elle inclut de l’intelligence artificielle, la capture volumétrique ne délivre pas toutefois, pour l’instant, un modèle 3D exploitable pour l’animation : cinq heures de temps de traitement sont nécessaires pour une minute de capture (à 30 fps). « Elle pourrait devenir une nouvelle technique pour l’animation de personnages photoréalistes (pour les besoins des métavers entre autres) », prévient néanmoins Stéphane Singier qui a invité le leader français des plateaux de vidéo volumétrique 4DViews (Grenoble). Cette spin-off de l’Inria a déjà équipé une quinzaine de sites dans le monde avec sa solution de production Holosys (48 caméras 4K) et d’édition 4DFX.

 

Mise au point par 4DViews, la solution de production Holosys permet la capture volumétrique de personnages. © 4DViews

 

Beaucoup plus familière des professionnels de l’animation, la capture de mouvements (ou MoCap) est introduite, quant à elle, par des acteurs historiques comme SolidAnim et MocapLab auxquels les RADI ont expressément demandé si la MoCap pouvait vraiment « faire plus, plus vite et moins cher » que la technique keyframe.

Officiant depuis quinze ans dans la MoCap (corps, facial, regard, doigts), Rémi Brun, CEO de MocapLab (région parisienne), qui a participé à la fabrication de nombreux jeux vidéo, publicités et séries d’animation, tient à rappeler : « Avec notre nouveau système de capture (57 caméras), nous pouvons traiter de gros volumes d’animation, les livrer rapidement et pour des prix très raisonnables. Mais la question fondamentale demeure celle-ci : pour quel style de projet désire-t-on de la MoCap ? Pour un bon résultat, il faut que celle-ci corresponde à un choix de la direction artistique, que le character design soit adapté et qu’elle fasse partie très tôt du pipeline 3D de production. »

SolidAnim (Angoulême), qui propose en complément de ses prestations en MoCap des services complets en animation (depuis le story board jusqu’à la livraison de l’image finale), avance pour sa part, en s’appuyant sur des exemples, des coûts à la minute utile pouvant aller de 76 euros en MoCap optique (pour 25 heures livrées) à 250 euros pour un jeu vidéo (pour 35 minutes d’animation). « Plus le volume de production en MoCap est important, plus celle-ci devient rentable », rappelle Jean-François Szlapka, directeur général de SolidAnim. « À ce coût MoCap, il faut toutefois ajouter les retouches en keyframe lors du Motion Edit (entre 400 et 600 euros la minute). Quoiqu’il en soit, nous restons bien inférieurs au coût moyen de la minute finalisée d’animation en keyframe (entre 2 000 et 4 000 euros). »

 

Pour le docu-fiction « Notre-Dame de Paris » (Program33), SolidAnim a réalisé 52 minutes d’animation en MoCap. © SolidAnim

 

Intelligence artificielle et animation, bientôt la convergence ?

Autre technologie de rupture, l’intelligence artificielle générative, qui s’immisce de plus en plus dans la création d’images et qui est déjà présente dans des étapes comme le rigging et le skining, pourrait avoir sa place dans toute la chaîne de production d’animation 3D à condition d’améliorer des points comme l’animation faciale par exemple.

Invitée l’an dernier aux RADI, la start-up Kinetix se concentre, pour sa part, sur le marché des métavers : « Les animations 3D produites par l’IA générative ne possèdent pas actuellement une qualité suffisante pour s’inviter dans les productions comme celles d’Ubisoft ou de Disney », reconnaît Henri Mirande, C.T.O. de Kinetix. « Mais elles sont largement au niveau dès lors qu’il s’agit de peupler les métavers en personnages ou assets 3D. Cette demande s’annonce tellement forte que les méthodes traditionnelles de production d’animation 3D n’y suffiront pas. » La start-up parisienne, qui affiche une très forte croissance (de 18 à 43 personnes en un an) et a réussi à lever 11 millions de dollars (inédit dans le secteur), entend donc y répondre en poursuivant le développement de sa plate-forme no-code qui transforme automatiquement en animation 3D une vidéo d’un personnage humanoïde ou non.

Moins onéreuse qu’une motion capture (la captation recourt à une seule caméra), la solution de production d’animation 3D proposée par Kinetix, qui a déjà amélioré des points délicats comme les contacts avec le sol ou l’accélération du mouvement, est en outre gratuite et accessible pour tout utilisateur n’ayant pas des compétences en animation 3D : « La plupart des utilisateurs des mondes virtuels ne sont pas des animateurs 3D », rappelle Henri Mirande. « Ils ne disposent pas non plus d’un budget suffisant pour faire de la motion capture. La création de personnages 3D pour les besoins des métavers équivaut à celle des émoticônes. » Basée sur un business model peu courant dans le monde de l’animation, la start-up, qui accompagne sa plate-forme d’un marketplace NFT, pense se financer sur le volume des créations ainsi produites.

Bien connue pour ses outils de peuplement de scènes avec des figurants numériques, la société Golaem s’intéresse également de très près aux réseaux neuronaux et plus spécialement aux algorithmes de deep learning pour l’animation (la création de foule dans un premier temps) et les effets spéciaux. « Notre logiciel Golaem Crowd (huit versions à l’heure actuelle) est arrivé aujourd’hui à un niveau de maturité », explique Stéphane Donikian, CEO de Golaem. « Depuis deux ans, nous nous attelons à la mise au point d’un framework basé sur l’IA générative accessible pour tous les studios d’animation et suffisamment versatile pour s’adapter à n’importe quelle base de données. Notre objectif n’est pas de mettre sur le marché un nouveau produit mais de l’intégrer dans des logiciels. » La première étape de développement concerne l’approximation des rigs d’un personnage (corps et visage) : « Nous expérimentons de nombreuses typologies de réseaux de neurones », souligne Stéphane Donikian. « Mais nous n’avons pas encore atteint nos objectifs en termes de performance même si nous gagnons déjà en portabilité. L’un des avantages de ce framework encore en développement est de permettre l’utilisation de rigs qui ne sont plus spécifiques à notre logiciel. » Comme l’outil s’enrichit en fonction du nombre de frames qu’il utilise, Stéphane Donikian conclut sa présentation avec un appel aux studios d’animation pour une mise à disposition de leurs bases de données. Avec l’assurance que ces données sur lesquelles va s’entraîner leur outil demeurent la propriété des studios.

 

La série en développement « FRNCK » (26 fois 22 minutes) utilise le format USD Producer © SuperProd

 

En direct des studios

Très suivie par le public des RADI car en prise directe avec les réalités du terrain, la nouvelle cession intitulée « Retours d’expériences » donne la parole aux studios investis dans la mise en place de pipelines nouvelle génération et de nouveaux procédés de fabrication. Le studio SuperProd (Paris, Angoulême, Milan, Los Angeles et New-York) a choisi de placer le format USD (Pixar Universal Scene Description) au cœur de son pipeline. « Nous voulions disposer d’un format nous permettant d’échanger plus facilement des fichiers sur tous les logiciels de notre pipeline sans avoir besoin de convertir les données mais aussi entre nos studios et partenaires sur les séries en cours », remarque Marc Dubrois, responsable du pipeline Film.

Présenté en cours d’élaboration aux RADI 2021, le pipeline USD (Houdini, Maya, Arnold) est devenu désormais opérationnel à la fois sur la série et le long-métrage. « Le format USD ne présente que des avantages en garantissant une plus grande pérennité des logiciels et l’interopérabilité. Nous pouvons travailler avec tous les assets en même temps, éviter des aller-retours lors du rendu, etc. Mais l’implémentation de l’USD reste complexe et demande d’accompagner les artistes dans cette nouvelle manière de travailler. »

Si le temps réel n’est pas invité, cette année, à la tribune des RADI, il fait l’objet d’une présentation remarquée par 2 Minutes (Paris, Angoulême, Québec, Chine, La Réunion) et Loops Creative Studio, un jeune studio d’animation installé à Angoulême. « Le temps réel amène un vrai renouveau dans l’animation mais apporte aussi tout un écosystème qui remet à plat les pratiques des studios », prévient Alexandre Bretheau, co-fondateur et superviseur CG de Loops Creative Studio. Avec le studio 2 Minutes, celui-ci s’est lancé, après plusieurs tests concluants (sur des rendus non photoréalistes, la compatibilité avec Houdini…), dans le développement conjoint du pipeline Artefact basé sur Unreal Engine 5. L’intégration se fera en trois étapes, chacune étant validée par des longs-métrages d’animation en cours de production chez 2 Minutes : Lendarys de Philippe Duchêne et Jean-Baptiste Cuvelier pour la partie post animation, Les Légendaires de Guillaume Ivernel pour l’animatique, la previz et le layout, Saba de Benjamin Massoubre et Alexis Ducord pour le storyboard et l’animation. « Nous commençons en fait par la fin, continuons par le début et finissons par le milieu », souligne avec humour Jean-Michel Spiner, fondateur de 2 Minutes. « Mais pour chaque étape, la démarche demeure la même : fondre différentes phases en un seul lot. » À terme, le pipeline pour la série (qui continue d’inclure les outils de modeling et surfacing classiques) devrait se montrer assez épuré. Par contre, celui pour le long-métrage n’échappera pas à des allers-retours avec des outils comme Houdini ou Nuke.

Les deux studios reviennent également sur les effets du temps réel dans l’organisation interne. « L’intégration d’un pipeline temps réel, qui implique une manière de travailler moins linéaire, a une conséquence heureuse », se félicite Jean-Michel Spiner. « Après des années d’hyper spécialisation dans nos métiers, nous observons le grand retour des généralistes capables de prendre en charge plusieurs tâches. »

L’impact environnemental demeure, pour l’instant, encore peu mesurable mais les résultats s’avèrent déjà probants, montrant une réduction de la consommation électrique des processeurs d’un facteur 10 pour une série (4 pour un long-métrage). Quant à la question récurrente de l’avantage coût, la réponse est sans ambiguïté : « Notre but en intégrant le temps réel n’est pas de produire plus vite ni moins cher mais, à planning et budget égaux, de fabriquer de plus belles images », conclut Jean-Michel Spiner.

Invité à la table ronde sur les projets soutenus par les commissions CIT et RIAM du CNC, Les Fées Spéciales (Montpellier) revient pour sa part sur Libreflow, un asset manager semi-décentralisé en open source. Mis en place dans le cadre d’un appel à projet lorsque le télétravail s’imposait en France (du fait du Covid), Libreflow est devenu aujourd’hui la colonne vertébrale du studio. Développé à partir du framework Kabaret (élaboré par Supramonk et Ubisoft), Libreflow s’est très vite orienté vers le multisite. C’est ainsi que l’outil est apparu, pour la première fois, dans la chaîne de production du long-métrage 3D La Sirène dont la fabrication était partagée entre la France, la Belgique, le Luxembourg, l’Allemagne et la Slovénie.

« Le travail devait être distribué sur huit studios mais notre workflow a dû prendre en compte une quarantaine de mini studios correspondant à autant de postes de graphistes en télétravail », précise Flavio Pérez, directeur recherche et développement. S’il est conçu pour le multisite et calibré pour être utilisé dans la production de longs-métrages (They shot the piano player de Fernando Trueba est en cours de production chez Les Fées Spéciales), Libreflow, qui a fait l’objet d’une conférence à la Blender Conference (en novembre 2022 à Amsterdam), est déployé aujourd’hui sur toutes les productions internes.

Parallèlement à son développement, l’équipe des Fées Spéciales est également très impliquée, avec Autour de Minuit et le studio espagnol SPA Films, dans une refonte complète du moteur de Grease Pencil, l’outil d’animation 2D de Blender qui devient de plus en plus incontournable dans la production de longs-métrages 3D. « Cette refonte – sans ajout de nouvelles fonctionnalités – permettra au moteur d’être plus performant et surtout d’intégrer le nouveau système nodal de Blender en termes de manipulation de données. » Cette ambitieuse refonte devrait être prête lors de la sortie de la version 4 de Blender à la fin 2023. L’objectif de ces développements est, comme aime le rappeler Flavio Pérez qui développe par ailleurs sur Grease Pencil un outil très prometteur de « stroke mapping » (mapping de traits ou de brosses), de dégager un maximum de temps créatif pour les artistes.

 

Extrait de l’article paru pour la première fois dans Mediakwest #51, p. 86-91