L’animation en forme athlétique

État de surchauffe pour le Mifa, le Marché international du film d’animation d’Annecy (du 11 au 14 juin), qui a multiplié les temps forts, démos, pitchs et sessions de recrutement, rencontres et show cases.
bandeau189_2.jpeg

 

Toujours plus grand, plus ouvert, le marché de l’animation a étendu son périmètre sur le lac (8 000 mètres carrés au total), a multiplié les espaces (pays, institutionnels, formation, nouvelles technologies, VR/AR et jeux vidéo…) et s’est plié en quatre pour accueillir les délégations (le Japon était à l’honneur) et les sociétés participantes venues du monde entier (1 800 sociétés pour plus de 4 000 accrédités).

Dans cette ambiance nourrie et très dense, les acteurs hexagonaux se sont fait remarquer en annonçant, entre autres, des partenariats (Ankama avec le studio japonais No Border, l’École des Gobelins avec Netflix, etc.) et des regroupements dont le plus inattendu a été celui de Cube Creative (séries Kaeloo et Athleticus) et de Xilam Animation (long-métrage J’ai perdu mon corps) dont le président-fondateur Marc du Pontavice a reçu le Mifa Animation Industry Award.

Jusqu’aux éditeurs d’outils logiciels, venus en nombre, qui ont sorti le grand jeu afin de séduire les professionnels de l’animation ; mais aussi du jeu vidéo et des VFX… les frontières se faisant de plus en plus poreuses. Et comme pour leur donner raison, de nombreux films sélectionnés ou mis en avant par le Festival (Playmobil, La Fameuse Invasion des ours en Sicile…) affichent, en bonne et due place, leurs outils dans leur chaîne de fabrication. Des outils métiers profilés efficacité et productivité.

 

Le temps enfin venu pour le temps réel ?

« Il y a trois ans, il fallait en parler. Il y a deux ans, il s’agissait de convaincre. Aujourd’hui, les studios d’animation demandent comment on y va », résume Mathieu Müller, en charge du media Entertainement chez Unity Technologies. Partenaire officiel 2019 du Mifa, Unity constituait, avec Epic Games qui édite Unreal Engine, l’un des pôles forts du Mifa.

Pour s’imposer sur le marché de l’animation et de la série en particulier, les deux moteurs 3D temps réel, très présents entre autres chez les éditeurs de jeux vidéo, ne manquaient pas cette année d’exemples – ni de studios d’animation partenaires – à mettre en avant.

Côté Unity, le court-métrage 3D Sherman, réalisé en interne tout exprès par Mike Wuetherick, se distinguait non seulement par son histoire désopilante (un raton laveur aux prises avec un tuyau d’arrosage agressif) mais aussi par son approche « ouverte ». Comme sur la plupart des projets produits par Unity (Book of the Dead, Adam…), les assets sont mis à la disposition des animateurs : les personnages pouvant être animés de manière différente, les décors se modifier, l’histoire se reconfigurer pour une autre fin…

Des vidéos expliquent en outre, étape par étape, comment utiliser les outils et les shaders du moteur 3D temps réel (surtout le traitement de la fourrure). Celui-ci semble prêt aujourd’hui à traiter des séries d’animation comme le prouve la série 3D en cours de développement Edmond et Lucy (52 fois 11 minutes) réalisée par François Narboux (production Miam ! Animation). Développée pour France 5, la série, produite en partie sous Unity, entrera en production début 2020 : « Pour cette série sur la nature, il était important qu’elle fasse “vrai” », précise le réalisateur.

« Comme tout est simulé en temps réel, la nature paraît vivante. Comme la lumière, la position des caméras (etc.) sont facilement modifiables, faire des retakes ne pose plus de problème. L’économie faite sur le temps de rendu profite ainsi à l’animation. » Pour cette production (au budget de 6 millions d’euros), la première grosse série de France Télévisions (après la série Mr Carton de Michaël Bolufer et Fabien Daphy diffusée en 2014 sur France 4) à recourir au moteur 3D temps réel, Miam ! envisage l’ouverture d’un studio spécialisé dans le temps réel à Lyon pour l’animation et le jeu vidéo, lequel, reposant sur les mêmes assets que la série, peut être produit dans la foulée. Réalisé par le studio Artefax (Lyon), le pilote fait également office de démo interactive.

Pour la première fois au Mifa, la société de jeux vidéo Epic Games (Caroline du Nord, USA), qui propose le moteur 3D Unreal Engine, s’adressait, comme Unity, aux professionnels de l’animation en basant les démos d’Unreal Engine 4.22 sur des courts-métrages 3D comme A Boy and his kite (Gavin Moran et Kim Libreri) et Troll (Goodbye Kansas et Deep Forest Films), dont les caractères, le ray tracing et les effets spéciaux sont animés en temps réel.

Producteur du célèbre jeu Fortnite, Epic Games avait également réuni plusieurs studios d’animation comme Blue Zoo Animation (Londres) et Piranha Bar (Dublin), qui ont élaboré leur pipeline 3D autour du temps réel. Le studio d’animation et d’effets visuels irlandais a donné un aperçu de ses productions hybrides mêlant 3D, prises de vues réelles, capture de mouvements et rendu en temps réel avec la performance Avatar Days. Réalisée avec XSens et Dynamixyz, celle-ci reprend comiquement des personnages issus de jeux on line d’Epic Games (comme Paragon), tellement hybridés avec les joueurs qu’ils en épousent leurs caractères humains.

Parmi les partenaires français, Epic Games avait invité Praxinos, une jeune société coopérative de Metz qui développe des logiciels pour l’animation 2D et 3D dans un environnement temps réel. La SCOP présentait ainsi son plug-in, Iliad, un moteur performant de brosses 2D qui sera intégré dans Unreal Engine 4 dès cet automne : « Il manquait à Unreal Engine un outil permettant de dessiner en 2D des textures sans avoir à ressortir du logiciel », précise Elodie Moog qui a cofondé Praxinos avec Fabrice Debarge. Iliad constitue aussi la première brique d’un projet beaucoup plus ambitieux : le développement d’un logiciel d’animation 2D prévu pour un environnement 3D temps réel et réellement adapté aux besoins des animateurs 2D.

« Un outil d’animation 2D temps réel ne peut pas être développé avec une approche 3D qui nécessite toujours une courbe d’apprentissage assez complexe. Odyssey disposera de deux interfaces, l’une dédiée aux animateurs 2D qui resteront ainsi dans leur univers, l’autre s’adressant à ceux qui sont en charge du compositing et qui ont donc besoin d’une vue 3D. » S’il sera toujours alimenté par Unreal Engine, le logiciel de Praxinos restera un logiciel indépendant. Plusieurs studios d’animation ayant des projets d’animation hybride se sont déclarés prêts à prendre en béta test cet outil très attendu qui réunit, sous la même interface, les approches 2D et 3D de l’animation.

Les moteurs temps réel, qui se passent de temps de rendu, ont fait par ailleurs l’objet d’une conférence très suivie réunissant plusieurs studios d’animation (Teamto, Piranha Bar, the third Floor…) partageant leur expertise.

 

La mocap pour toutes les animations ?

La présence remarquée au Mifa des spécialistes de la capture de mouvement (motion capture ou mocap) suffira-t-elle à lever les « réticences » des animateurs – surtout des Français – vis-à-vis de cette méthode d’animation ? Pour Gaspard Breton, CEO de Dynamixyz, la demande des studios et surtout celle des nouvelles plates-formes (Netflix, Google, Amazon, Disney+…) pour des contenus animés et des effets spéciaux est devenue si importante qu’il convient de mettre en place de nouvelles manières de produire de l’animation.

Spécialisée dans la mocap faciale depuis une dizaine d’années, la société rennaise (présente également à Los Angeles et Tokyo) équipe aujourd’hui avec sa suite Performer la plupart des gros studios anglo-saxons (Dreamworks, MPC, Framestore) et asiatiques (Toei Animation, Capcom, Digital Frontier) mais en France, ses clients se comptent encore sur les doigts de la main (Big Company, Unit Image, Fauns…).

« Notre outil est pourtant conçu pour leur faire gagner du temps, soutient Gaspard Breton. Plusieurs centaines de secondes d’animation peuvent être produites par jour (pour mémoire, il y a 10 millions de frames d’animation faciales sur le jeu Red Dead Redemption 2). L’outil ne remplacera évidemment jamais l’animateur qui doit toujours, quelle que soit la technologie de mocap utilisée (avec ou sans marqueurs), retoucher à la main les courbes d’animation et leur donner une personnalité. »

À l’origine dédiée à l’animation de personnages réalistes (pour le jeu vidéo, le broadcast et les effets spéciaux), la capture des expressions en vidéo et sans marqueur (celle utilisée par Dynamixyz) s’immisce aujourd’hui dans l’animation cartoon dont la dynamique (et le lipsynch en particulier) nécessite parfois des animations réalistes et rapides à produire. Certains caractères de la série Miraculous (Zagtoon, Method Animation), comme Ladybug, ont ainsi fait l’objet d’une mocap lors d’une performance live orchestrée par Big Company (Lyon) à partir des rigs fournis par la production. La suite Dynamixyz (en version single ou stéréo) est compatible avec les principaux systèmes de capture de mouvements comme Xsens, OptiTrack, Vicon et Motion Analysis.

Sur le Mifa, la société rennaise s’était lancée, avec son partenaire Xsens (Pays-bas), dans un « karaoxyz » intégral en temps réel (avec Unreal Engine), lequel a combiné une capture de mouvements du visage et du corps. Sur le stand d’Epic Games, Xsens, qui commercialise son système de mocap MVN Animate pour l’animation 3D (combinaison lycra à 17 trackers de mouvements), a prêté également main forte au studio d’animation Piranha Bar dans une performance dont le rendu était traité en 3D temps réel.

Venant de l’industrie du jeu vidéo et implanté dans le milieu de la danse contemporaine, la société américaine Noitom International aborde, pour sa part, le marché de l’animation 3D avec Perception Neuron, un système modulaire de mocap recourant à des capteurs d’unité de mesure inertielle (avec un gyroscope, accéléromètre et magnétomètre). Plusieurs exemples étaient présentés dont le plus original est un jeu 3D temps réel (pour PC et consoles) du studio allemand Slow Bros, Harold Halibut, pour lequel la mocap a été utilisée en association avec la stop motion : les marionnettes étant réalisées en claymotion puis animées en motion capture (sur Maya).

Smodo, une société polonaise, s’appuie également sur son expertise en stop motion qu’elle hybride avec l’animation 3D et la mocap. Présenté déjà l’an dernier, mais commercialisé cette année, son kit se compose d’une armature physique (avec des marqueurs de couleurs différentes), de quatre caméras et d’un plug-in 3ds Max. Après un calibrage des caméras et la création d’un modèle 3D, les mouvements des marionnettes sont transférés sur le modèle numérique. Celui-ci peut dès lors recevoir des éclairages et textures indépendamment de son support physique. L’objectif de l’équipe polonaise (issue du studio Animoon) est de baisser les coûts de la stop motion (ici réduite à une simple armature) et d’ouvrir ainsi une nouvelle – et très prometteuse – voie à l’animation.

 

Outils logiciels au service de la créativité

Pour Stéphane Donikian, fondateur de Golaem qui édite une solution de simulation de foule utilisée dans plusieurs films de la compétition d’Annecy (Playmobil, La Fameuse Invasion des ours en Sicile), les producteurs n’ont plus aucune raison de « censurer » les scénaristes. Sans peser sur le budget de la production, ceux-ci peuvent en effet ajouter des foules à leurs scènes et enrichir leurs arrière-plans.

« Plus étoffée et plus modulaire, la nouvelle version de Golaem Layout permet aux animateurs d’aller plus vite dans la création à partir du moment où la finalisation d’un plan prend moins de temps. De même que les solutions propriétaires Presto de Pixar ou Premo de Dreamworks, elle redonne le contrôle total de l’animation », estime Stéphane Donikian.

Complètement repensé, l’outil est devenu nodal et l’animateur est en mesure de retoucher ses personnages, en créer rapidement d’autres, les modifier en modélisant un nouveau comportement et obtenir ainsi une foule complexe sans passer par l’étape chronophage de la simulation. « Notre outil d’édition de comportements offre des briques standards, mais propose aussi de programmer ses propres comportements à partir de la perception visuelle et audio des personnages. L’intelligence artificielle, couplée avec l’animation, permet d’aller très loin. Ce couplage est spécifique à notre solution. »

Conçue également pour être « user friendly », la solution Substance Alchimist (encore en béta test) développée par Allegorithmic (société reprise au début de l’année par Adobe) fait suite aux logiciels Substance Designer et Substance Painter. Elle rend possible l’édition de textures procédurales ou bitmap, qui peuvent se combiner entre elles et se modifier au moyen de filtres ou de générateurs. Le logiciel possède en standard de nombreux matériaux générés avec Substance Designer et optimisés pour être reprogrammés, voire animés.

Plus généralement, les éditeurs de logiciels préfèrent proposer des outils métiers aux courbes d’apprentissage rapides afin de réduire les étapes de fabrication sans affecter la qualité de l’animation : « Pour améliorer la productivité des studios, les outils dédiés sont beaucoup plus adaptés que les outils généralistes », rappelle Cyril Corvazier, cofondateur de Mercenaries Engineering.

Initié par le studio Teamto et développé par Mercenaries Engineering, Rumba vise principalement les animateurs 3D, au cœur de la chaîne de production. En ajoutant une « couche » de manipulation sur le squelette (rig) de la marionnette (importé depuis Maya), le logiciel rend l’animation plus intuitive, lequel joue à la fois sur la cinématique inverse (IK) et l’interpolation en FK (Forward Kinematics).

Sans avoir à changer de rig, l’animateur peut modifier des parties de l’animation ou imaginer des manières originales pour faire bouger sa marionnette. Grâce à un système performant de cache, les rigs sont en outre plus rapides à manipuler et l’animateur est en mesure de contrôler, sur sa timeline, le timing de ses personnages à 24 images par seconde.

Mercenaries ne fournit pas, pour l’instant, d’outil de rigging (squelettage) pour Rumba, préférant séparer cette tâche de la manipulation. Pour Annecy, toutes les démonstrations s’appuyaient sur des rigs de personnages élaborés par Karlab (Paris), une société spécialisée dans le rigging.

Commercialisée et développée par Mercenaries Engineering, la solution Guerilla (Station et Render) s’adresse, elle aussi, aux équipes spécifiquement en charge du look dev, de l’assemblage, de l’illumination et du rendu. Validée sur les longs-métrages d’animation Playmobil, Minuscule 2 et le film Ford et Ferrari truffé d’effets spéciaux (20th Century Fox), la version 2.1 s’est stabilisée et comporte d’importantes nouvelles fonctionnalités comme l’instanciation qui augmente la complexité géométrique d’une scène ou ce nouvel outil de denoising afin de retirer le bruit des images.

Bien répandu dans les écoles d’animation (École des Nouvelles Images, Isart Digital Paris, Pôle3D, etc.), Guerilla se retrouve au générique de nombreux films d’étudiants dont certains ont été sélectionnés comme Wild Love à Annecy ou Hors Piste au Siggraph 2019…

Parce que le pipeline de productions de films et de séries d’animation est formaté pour accueillir de gros volumes, la gestion du projet – et la répartition des tâches au sein du studio ou des studios partenaires – devient déterminante pour gagner en efficacité et fluidité. Adaptée aux petits et moyens studios (10 à 400 personnes), la solution de gestion de production Kitsu, développée par CG Wire, est open source, accessible et simple d’utilisation. Elle permet aux artistes 2D ou 3D, aux superviseurs d’animation, aux producteurs et aujourd’hui aux réalisateurs de voir l’avancement de leur production, de valider plus rapidement plans et assets, etc.

La liste des studios partenaires compte actuellement une vingtaine de studios comme Cube Creative qui l’utilise pour sa série Mush-Mush (52 fois 11 minutes, La Cabane, Thuristar), Tu Nous ZA Pas Vus, Autour de Minuit, Les Fées spéciales, Karlab, Unit Image (etc.) mais aussi des studios 2D comme Miyu Productions ou MadLab Animations. Pour mieux échanger les bonnes pratiques et fédérer la communauté, Franck Rousseau, fondateur de CG Wire, organise des espaces de discussion autour de thématiques pointues, auxquels sont invités des intervenants internationaux.

Cette dynamique s’est développée en parallèle au regroupement initié par plusieurs TD (Directeur Technique) aux RADI (Rencontres Animation Développement Innovation) à Angoulême en 2017. Désireux de partager leurs expériences et les méthodes de fabrication de leurs studios respectifs (et donc de lever le « secret » technologique), ceux-ci ont ouvert la plate-forme LePipeline.org (avec un glossaire de termes techniques, etc.) qui atteste de l’importance du pipeline et des métiers techniques de l’animation.

Ces initiatives individuelles, qui n’ont pas manqué d’interpeler les professionnels, ont trouvé des échos dans l’industrie (surtout celle basée sur l’open source), laquelle s’est spécialisée dans une étape de la production comme Karlab (dans le set-up), Androids Associés (layout et previs) ou Kaleidoscope…

Après Annecy 2018 qui traitait de l’ « open pipe », les studios d’animation, à l’initiative d’Ubisoft Animation Studio, se sont regroupés cette année autour de la notion d’ « open mind » : « Nous sommes passés de l’idée de partage à la collaboration », assure Damien Dee Coureau (Kabaret Studio) lors d’une table ronde sur les outils émergents et les pratiques innovantes. « Nous pouvons même envisager aujourd’hui de nous attaquer à des projets plus ambitieux que ceux que nous traitons séparément. »

Et Flavio Perez, TD chez Les Fées spéciales, de conclure : « Ce que nous mettons aujourd’hui en place dans les studios d’animation repose sur trois piliers : la créativité (tous les outils techniques doivent servir la créativité), l’agilité et la collaboration. »

 

Extrait de l’article paru pour la première fois dans Mediakwest #33, p.90/94. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.


Articles connexes


« Athleticus », le Livre
 20 novembre 2019