You are currently viewing Le mouvement c’est la vie
Move, une nouvelle application disponible sur smartphone. © DR

Le mouvement c’est la vie

Que ce soit pour du jeu, des VFX, pour ce que pourrait être le metaverse, la création de double numérique ou le transfert de captures de mouvements à des modèles non humains représente un large potentiel.

 

Pouvez-vous commencer par nous présenter Move.ai ?

Anthony Ganjou : Move va fêter ses quatre ans en avril prochain ; j’ai cofondé l’entreprise avec mon collègue Tino en 2019, après avoir vendu mon entreprise précédente à une grande agence de sports et de divertissement. J’étais à l’époque leur responsable de l’innovation et de la technologie, et je venais de donner un discours à l’Imperial College de Londres, une université réputée pour les talents qu’elle forme dans le domaine de la vision par ordinateur. C’est à ce moment que Tino est venu me présenter le travail qu’il faisait dans le cadre de son doctorat, portant sur le mouvement des corps humains et la vision par ordinateur. C’était fin 2018, et je n’avais à l’époque aucune expérience de ces technologies ou de l’intelligence artificielle : ce qu’il m’a montré m’a coupé le souffle ! C’est ainsi que nous avons fondé Move, dans le but de créer une IA puissante spécialisée dans la capture de mouvements sans marqueurs ainsi que dans l’animation.

 

Anthony Ganjou, cofondateur de Move.ai. © DR

Nous avons passé les trois dernières années à rassembler une véritable « dream team » d’ingénieurs et d’experts en vision par ordinateur, notre objectif final étant la mise au point d’un logiciel capable d’extraire des mouvements à partir d’une vidéo, avec un niveau de précision comparable à ceux des systèmes inertiels ou optiques. Nous sommes trente-cinq dans cette entreprise en forte croissance, qui a récemment obtenu des financements d’acteurs de premier plan tels qu’Animoca ou encore Warner Music Group. Par ailleurs, nous allons bientôt lancer une appli pour iPhone, ce qui mettra notre technologie à la portée d’un grand nombre d’utilisateurs à coût moindre.

Début 2021, nous avons été contactés par EA, qui, bien que convaincu que la capture de mouvements sans marqueurs représentait l’avenir du marché, n’avait encore vu aucune solution qui approche la précision des technologies utilisant des marqueurs. Nous avons donc passé la plus grande partie de l’année 2021 à collaborer avec leur équipe de capture de mouvements, raffinant progressivement notre technologie basée sur l’IA.

Le résultat, c’est ce que vous voyez à l’écran : les mouvements d’un sujet ont été capturés par deux systèmes différents, à savoir un système traditionnel faisant appel à un ensemble de 75 caméras optiques d’une part et, d’autre part, notre logiciel faisant appel à huit caméras GoPro. C’est un comparatif très utile, parce qu’il montre clairement qu’une installation coûtant un millier de dollars peut rivaliser avec une installation à plusieurs millions. Autrement dit, notre technologie est prête à être utilisée en production et offre des performances comparables à celles d’un système traditionnel optique.

Et donc, ce qui nous occupe depuis six mois environ, c’est le développement d’une version de ce logiciel qui puisse fonctionner sur des appareils mobiles. En pratique, cela signifie que vous pouvez installer l’appli sur deux à six iPhone et les synchroniser pour en faire une unique installation de capture afin d’avoir plusieurs angles de vue sur un, deux ou trois sujets dans n’importe quel environnement. Les images sont ensuite envoyées dans le cloud, où elles sont traitées afin de produire des données FBX ; il s’agit actuellement du moyen le plus efficace de faire de la capture de mouvements à moindre coût.

Nous avons lancé la version bêta de l’appli en octobre et pas moins de 80 000 utilisateurs se sont inscrits, elle sera disponible sur l’App Store à partir du 1er mars 2023. Nous sommes convaincus que cette solution a un potentiel énorme, car elle permet de réaliser des captures de mouvements d’une manière qui était jusqu’alors impossible : cela pourra bénéficier aux créateurs individuels et aux petits studios, mais également aux plus grandes structures puisque certains utilisateurs de la version bêta sont des grands studios qui pourront utiliser Move.ai pour simplifier leurs workflows d’animation et de capture de mouvements à des fins de prévisualisation, par exemple.

Le système fonctionne avec tous types de sujets, et nous l’avons conçu en mettant l’accent sur les mouvements authentiques dans les environnements les plus variés : terrain de foot ou de tennis, jardin, parc, studio… Notre objectif principal est de rendre plus faciles et plus accessibles la capture de mouvements et l’animation à grande échelle, et de démocratiser l’accès à des outils qui étaient autrefois réservés aux studios AAA.

 

Vous avez parlé d’installer l’appli sur un maximum de six iPhone ; est-ce que le système fonctionne bien sur un plus petit nombre ? Faut-il un modèle très récent ?

La technologie est basée sur l’utilisation de plusieurs appareils synchronisés. Plus vous utilisez d’appareils, et plus vos données seront précises. Avec deux ou trois iPhone, par exemple, vous obtiendrez des données équivalentes à celles produites par une capture inertielle basique ; avec quatre iPhone, la qualité se rapprochera plutôt de celle d’une capture inertielle de haute qualité ; enfin, avec cinq ou six iPhone, vous êtes très proches des résultats d’une capture optique.

L’appli fonctionne sur tous les modèles à partir de l’iPhone 8, et il n’est pas nécessaire que tous les appareils utilisés soient du même modèle. La question des exigences matérielles est très importante pour nous, et c’est pourquoi nous avons fait beaucoup d’efforts pour permettre l’utilisation d’appareils plus anciens, qui étaient peut-être remisés au fond d’un tiroir. D’ailleurs, beaucoup des utilisateurs de la version bêta sont allés se procurer sur Internet des iPhone d’occasion à bas prix : ce côté démocratique de notre solution représente vraiment l’une de nos priorités.

 

Et la synchronisation des appareils est-elle faite une fois que les données sont envoyées dans le cloud, ou par l’utilisateur avant de commencer la capture ?

L’appli utilise tout d’abord les technologies Bluetooth et wi-fi pour synchroniser tous les appareils utilisés, qui peuvent d’ailleurs être installés dans n’importe quelle configuration : en triangle, en cercle, etc. Il y a ensuite une étape de calibration, qui demande environ une minute et demie au cours de laquelle l’utilisateur marche dans le volume délimité par les appareils et se dirige successivement vers chacun d’eux. Le système est alors prêt pour le tournage, et une fois les images envoyées dans le cloud, il faut compter entre 5 et 8 minutes de traitement par minute filmée, avant de récupérer les données finales.

 

Le délai de traitement dans le cloud dépend-il aussi du nombre d’acteurs filmés ? Combien de temps faut-il, par exemple, pour récupérer les données après avoir filmé une scène de 20 secondes ?

Pour un clip de 20 secondes mettant en scène un seul acteur, il faut compter environ 2 minutes de traitement au total. Si les acteurs sont plus nombreux, le temps nécessaire augmente d’autant. Il faut également noter qu’avec plus d’appareils, on augmente le volume maximal capturé : ainsi, en utilisant le maximum de six iPhone, vous pouvez capturer un espace de 8 mètres par 8. Un autre avantage est que les appareils plus nombreux permettent de limiter les problèmes d’occlusion, c’est-à-dire les situations où un acteur bloque la vue d’une ou plusieurs caméras.

J’ajouterais que d’un point de vue pratique, l’utilisateur peut installer ses iPhone de n’importe quelle manière, qu’ils soient fixés sur un trépied ou tout simplement appuyés contre un meuble. L’essentiel est que les téléphones restent immobiles, mais autrement il n’y a pas de contraintes en ce qui concerne l’angle ou la hauteur à laquelle ils sont installés : il suffit qu’ils soient orientés de manière à filmer entièrement le ou les acteurs filmés. Les utilisateurs de la version bêta ont effectué des captures dans les environnements les plus divers et avec des installations très variées, et le système est plutôt souple et facile à installer.

 

De deux à six smartphones sont nécessaires pour réaliser de la capture de mouvements. © DR

Et quel est votre modèle économique ? Y a-t-il une licence logicielle, un coût pour le calcul dans le cloud… ?

C’est exactement cela. Lors du lancement, chaque utilisateur aura droit à 2 minutes de traitement à titre d’essai gratuit, qui lui permettront de se faire une idée réelle de la qualité de notre solution. Le prix que nous avons fixé pour l’instant est de 365 dollars pour douze mois d’accès aux plates-formes de traitement dans le cloud, avec un plafond de 30 minutes d’animation par mois ; autrement dit, le prix s’élève à 365 dollars pour 6 heures d’animation étalées sur un an. Il y a un supplément si l’utilisateur dépasse son plafond mensuel, mais dans tous les cas la solution reste beaucoup moins coûteuse que toutes ses concurrentes sur le marché.

Le prix dont je parle est destiné aux particuliers, mais nous avons également parmi les utilisateurs de la version bêta de très grandes entreprises, dont les besoins sont différents. Il y a donc d’autres tarifs, et nous pouvons même créer un tarif sur mesure pour les besoins très importants (par exemple si une entreprise souhaite donner accès à des centaines d’utilisateurs dans différentes régions du monde, pour ses besoins de prévisualisation).

 

Le logiciel offre-t-il les mêmes fonctions à tous les utilisateurs, ou y a-t-il des licences « standard » et « pro » ?

Nous allons effectivement lancer une version « pro » qui présente une différence principale : elle permettra de filmer avec d’autres caméras que des iPhone. Le logiciel lui-même fonctionne avec n’importe quelle caméra, de l’humble GoPro à la caméra de cinéma la plus sophistiquée. Certaines caméras sont bien plus coûteuses pour l’utilisateur, c’est certain, mais il y a également une différence de coût pour nous, puisque le traitement d’images en 4K ou à plus forte raison en 8K nous demande plus de ressources. Vous aurez donc accès à une meilleure résolution et à un plus grand volume de vidéos traitées, et vous pourrez même capturer les mouvements d’acteurs plus nombreux, mais cela sera plus cher.

Il y a en fait trois niveaux : le premier, à 365 dollars par an, est proposé à tout utilisateur d’un iPhone ; le deuxième s’adresse aux plus grands studios et permet d’avoir plusieurs utilisateurs et beaucoup plus d’heures de traitement, toujours en capturant à l’aide d’iPhone ; enfin, le troisième niveau est entièrement personnalisable et permet aux clients d’utiliser d’autres types de caméras, de créer des clouds privés, et plus encore. Les scénarios d’utilisation sont illimités et nous sommes capables d’adapter la solution à cette infinité de besoins.

Move.ai ne veut pas se limiter à cette application. Le but est de créer un véritable écosystème autour du mouvement avec également le licensing de mouvement d’acteurs, de célébrités, de sportifs.

 

Article paru pour la première fois dans Mediakwest #51, p. 44-46