Studio virtuel et réalité augmentée au service du live

La réalité augmentée est désormais adoptée par toutes les grandes chaînes TV, mais pas seulement, puisque d’autres secteurs s’y intéressent fortement. Ces acteurs enrichissent leurs productions avec des graphiques, de l’interactivité et des données...
« Le studio virtuel et la réalité augmentée au service du live », conférence organisée lors du SATIS 2019. De g. à d. : Laurent Loiseau, Philippe Bornstein, Marine Corbelin, David Mosca, Emanuelle Roger et Patrick Jeant. © DR

L’exploitation de la réalité augmentée au service du live dans le cadre de studios de réalité virtuelle est de plus en plus fréquent . Cette thématique était d’ailleurs au coeur d’une des conférences du SATIS 2019 qui reste toujours d’actualité…

Directrice de production sur des projets en VR et RA pour la société lilloise Wipon et représentante de l’association RA’pro qui vise à promouvoir les entreprises œuvrant dans le milieu de la RA, Marine Corbelin animait cette table ronde qui réunissait cinq intervenants (lire « Qui sont-ils ? » en fin d’article).

 

Marine Corbelin : Pour commencer, qui pourrait nous expliquer ce qu’on entend par studio virtuel ? Comment l’installe-t-on ? Comment réalise-t-on du contenu de RA adapté à ce type d’installation ?

David Mosca : Déjà, je ferais une différenciation entre la réalité augmentée pour le broadcast et celle pour le studio virtuel, même si cela peut être mixé. Il existe, au niveau de nos installations, deux types de RA. En broadcast, la RA consiste à utiliser un décor réel (comme celui de cette salle) et à faire apparaître des éléments virtuels directement dans la scène du décor réel. Le studio virtuel est, lui, basé sur un fond vert (vous pouvez en voir plusieurs sur le Satis). On a alors également des objets réels ou seulement des objets virtuels autour de la personne. Et, bien sûr, on peut concrétiser un studio virtuel avec des objets virtuels à l’intérieur.

 

Quelles sont les contraintes techniques à respecter pour ce type d’installation ?

David Mosca : En studio virtuel, le plus gros challenge porte sur la partie éclairage du fond vert, alors qu’en réalité augmentée on peut rester sur un éclairage traditionnel de studio. C’est une première grosse différenciation. Ensuite, au niveau personnel (invité, journaliste), la perte de repères au niveau des objets est plus complexe dans une scène virtuelle. Figurez-vous notre même scène tout en vert, il faut imaginer cette table, cela peut être assez compliqué. Certaines chaînes l’ont expérimenté, elles ont créé un studio virtuel complet où les invités se trouvaient autour d’une table ; tout, autour d’eux, était complètement vert. Trouver son repère spatio-temporel peut être assez étrange.

 

Avez-vous des conseils pour justement mettre la personne à l’aise, en la prévenant : « Tu dois te placer à cet endroit-là, parce qu’il y aura telle interaction » ?

David Mosca : Aujourd’hui, je pense que la technologie constitue un élément important pour bien comprendre ; la plupart des clients essaient de faire un mix réel et virtuel. Ils sont sur un fond vert, mais en ayant toujours pas mal d’objets réels : les tables, les chaises, certains écrans. On voit apparaître, migrer, depuis quelques années des technologies basées sur des moteurs de jeu vidéo : Unreal pour notre part, mais également Unity. Cela permettra de rajouter des reflets, des ombres portées, des particules, etc. On verra moins la différenciation entre l’objet réel et l’objet virtuel, ce qui n’était pas le cas il y a quelques années encore.

 

Patrick Jeant : Les studios virtuels, en ce moment, comptent beaucoup de fonds verts, mais aussi de plus en plus de dispositifs intégrant des murs à leds. Ce qui permet de savoir où l’on est, et évite de se trouver dans un espace quasiment sans repère, si ce n’est un écran placé devant, quand on tourne. Et comme il est inversé, il faut faire l’apprentissage de Miss Météo pour y arriver et être super à l’aise ! Quand c’est enregistré, c’est super facile, on peut faire dix prises. Mais, en live, si on se prend les pieds dans le tapis, on se les prend en direct, il n’y a pas de filet. Du coup, il faut répéter et répéter des scénarios qui, bien qu’assez simples, exigent une certaine fluidité. L’idée, bien évidemment, est que les personnes qui regardent le programme ne s’aperçoivent pas que, derrière, se cache tout un dispositif technique sophistiqué.

 

D’après votre expérience, la technologie es plutôt bien accueillie par les présentateurs et tous ceux qui se trouvent sur les plateaux non ?

Patrick Jean : Généralement, les gens sont curieux et ont vraiment envie de bien faire. Mais face à la complexité actuelle des dispositifs, c’est vrai qu’il faut former tout le monde, présentateurs compris. Finalement, il faut arriver à montrer des objets qui n’existent pas. Du coup, à un moment donné, la personne qui va jouer les animations devra vraiment « voir » l’objet et se dire qu’il sera là à tel moment. Ou alors utiliser un dispositif avec de la led. Dans ce cas, on obtient une image, certes déformée, mais au moins on voit l’objet arriver, c’est beaucoup plus facile à utiliser.

On installe des panneaux de leds derrière le présentateur et on y joue un environnement 3D. En bougeant la caméra, qui est trackée, on obtient un décor qui s’adapte aussi au point de vue de la caméra. Ce principe commence à être également utilisé dans le cinéma. Il permet de faire des économies faramineuses puisqu’on réalise tout en temps réel. Avant, on filmait sur fond vert, on trackait la caméra, mais comme la qualité n’était pas assez bonne, on envoyait le tout en Inde pour obtenir un meilleur tracking. Après, on faisait l’intégration avec finalement les modèles 3D.

Si on regarde maintenant au niveau technologique, on commence à atteindre le photoréalisme sur les moteurs graphiques. On interagit en temps réel et on gagne donc beaucoup de temps. Prenez le journal, regardez ce que font aujourd’hui France 2 et TF1. Derrière, il faut anticiper toutes les scènes, effectuer un énorme travail de préparation qui n’apparaît pas. Partir sur de la capture volumétrique permet de gagner du temps, d’éviter d’animer, mais il est vrai qu’il faut reconstituer un puzzle avec des pièces qui ne « matchent » pas forcément.

Au niveau technique, beaucoup reste à faire. Si on parle de RA, le vrai problème aujourd’hui, c’est qu’il faut un vrai standard. Des choses sont déjà en place, mais cela demeure compliqué. Je sais que toutes les sociétés qui œuvrent autour de la RA travaillent sur la mise en place de ce standard. C’est vrai que la led coûte très cher aujourd’hui, mais quand elle a un pitch fin, au final, si on respecte une certaine distance, on finit par ne plus la voir.

Ceci est valable uniquement pour les arrière-plans, mais si vous utilisez en même temps ces panneaux de leds et de la RA, vous ferez des choses assez complexes, puisqu’on arrive à mettre des objets situés devant, qui n’apparaîtront pas pour le présentateur. Celui-ci pourra se guider sur ce qu’il voit sur le mur de leds et finalement interagir. Pas encore interagir, c’est en train d’arriver, mais il pourra visualiser ce qu’il y a dans le contenu 3D projeté. Ces technos sont d’ailleurs utilisées plutôt sur des concerts aujourd’hui ; que cela soit un mur de leds ou via un vidéoprojecteur, c’est un peu le même combat. Par contre, la couche réalité augmentée commence à apparaître dans les concerts.

Je me souviens d’un concert aux Pays-Bas avec un chanteur et un mur de leds de quelque 30 mètres de haut. Le modèle 3D courait, il était composité et diffusé dans le mur de leds. Les spectateurs voyaient quelqu’un qui sautait sur 30 mètres, apparaissait dans un nuage de fumée et après en vrai. Où est le vrai chanteur ? Le modèle 3D ? Ces choses commencent à être utilisées en direct, non pas après le concert, mais pendant.

 

Quel intérêt les chaînes ont-elles à mettre en place ces nouvelles techniques ? Qu’apportent-elles à leur public ? Qu’attendent ces chaînes en retour ?

Patrick Jean : Leur intérêt est surtout de pouvoir présenter autrement des informations qui ne sont pas forcément très drôles à regarder, par exemple des statistiques. Aujourd’hui, si vous faites la version 2D, vous avez une page tableau avec des chiffres, ce n’est pas très sexy. Maintenant, en réalité augmentée, on peut tout imaginer, on peut faire des animations avec des objets en 3D et apporter finalement un peu plus de vie aux informations.

Philippe Bornstein : Alors broadcast et live, on est bien d’accord, avec de la RA, pour moi cela signifie deux choses. Le live c’est la diffusion simultanée du direct, celle par exemple du journal de vingt heures sur un flux broadcast télévisé. L’expérience peut être, à la source, d’augmenter ce qu’on va filmer et diffuser ; c’est typiquement le cas des incrustations évoquées tout à l’heure. Aux États-Unis, par exemple, pour montrer le niveau de l’eau, le journaliste va voir en RA le niveau de l’eau monter, et on va montrer que cela passe au-dessus de sa tête et qu’il va… se noyer !

L’autre partie consiste à augmenter l’expérience pour l’utilisateur dans sa publication. De la même façon qu’on le fait avec son téléphone, on va pouvoir synchroniser l’image du flux vidéo sur le poste de télé pour l’augmenter, par exemple lors d’un match de football, d’une scène quelle qu’elle soit, autour de l’écran, y compris devant. On va visualiser des informations qui ne sont pas publiées à l’écran, des scores, le joueur, voir le replay de l’action, toute la scène en réalité augmentée. Je vais prendre mon téléphone ou ma tablette, demain je prendrai mes lunettes de réalité augmentée, j’aurai un cinéma libre. Je pense que l’immersion, l’augmentation de cette réalité contextuelle, qui définit la réalité augmentée, est à la source, en live, mais aussi il y a toute cette expérience utilisateur qui peut s’effectuer chez l’utilisateur à domicile, à distance. Bien sûr, par là-même, on peut créer de l’interactivité, du partage, augmenter la communication, et donc l’immersion.

 

Au-delà du journal télévisé et de l’émission de divertissement, on voit de plus en plus de réalité augmentée apparaître dans le milieu du sport. J’aimerais que, Emmanuelle, tu nous parles de tes projets et nous expliques ce qu’est une expérience dite « fanbase ». Que va-t-on venir augmenter dans ce type d’expérience ?

Emmanuelle Roger : Justement comme tu viens de le dire, c’est important de faire cette distinction avec la vidéo augmentée, où on va avoir des incrustations en plus du flux vidéo. Elles ne vont pas permettre l’interactivité, mais simplement un spectacle un peu différent pour l’utilisateur qui est chez lui. La réalité augmentée, celle de nos expériences, est vraiment basée sur l’interaction. Elle est accessible à tous sur smartphone avec le kit iOS et Android, pour Apple et Google, et le sera bientôt sur lunettes de réalité augmentée. En vérité, elle l’est déjà sur lunettes de RA, mais peu y ont accès ; c’est encore très B to B et pas ouvert au grand public, mais cela changera. Apple va lancer ses lunettes l’année prochaine, Facebook travaille également sur le sujet. Clairement, incessamment sous peu, nous utiliserons cet outil dans notre quotidien pour regarder des matchs, mais pas seulement.

Aux fans, nous voulons apporter deux choses. Prenons le cas du fan qui se trouve au stade. Au plus près de l’action, il ressent toute l’ambiance du stade, mais il lui manque les informations qu’il a l’habitude d’avoir sur son écran de télé et qui sont des incrustations classiques : distances, statistiques… et la voix des commentateurs. Au stade, j’ai du mal à récupérer ces informations, d’autant que les problèmes de connectivité sont fréquents. Nous, grâce à l’arrivée de la 5G et aux types de réalité augmentée disponibles sur les smartphones aujourd’hui, nous allons être capables d’afficher sur le terrain et les joueurs, des informations…

Nous avons fait une expérience très parlante en basket. Ce que nous avons réalisé n’est pas du tout une vidéo, c’est vraiment la capture obtenue depuis des lunettes ou le téléphone. Quand vous lancez votre application, c’est comme si vous lanciez votre appareil photo. Vous voyez à travers votre téléphone, on a cette overlay interactive qui va permettre d’afficher la donnée en temps réel au bon endroit, sur le terrain ou les joueurs. On peut l’utiliser avec son smartphone pendant le match ou sur des lunettes de RA, comme les Magic Leap.

Concrètement, je suis sur un terrain de basket, je me demande qui est ce joueur là-bas que je ne connais pas du tout, qui fait je ne sais combien de passes, marque tant de points. Je prends mon téléphone et je clique sur ledit joueur. J’obtiens toutes les informations sur ses saisons, ses stats. Je suis au foot, Mbappé fait un super sprint, je le sélectionne et je peux voir sa vitesse en temps réel.

L’idée est de se dire que l’on va être capable de laisser la main au fan pour qu’il puisse moduler, personnaliser son spectacle sportif, avec l’information qu’il voudra voir, quand il aura envie de la voir. Ça, c’est ce que nous permet aujourd’hui la réalité augmentée et, contextuellement, l’arrivée de la 5G qui donnera de la connectivité dans les stades.

Patrick Jeant : En sport, on place plutôt la réalité augmentée avant l’événement, lors des pauses et après, plutôt que réellement pendant le jeu. J’ai réalisé de la RA sur du basket en septembre dernier. Nous avions amélioré la phase avant le jeu, pendant les temps morts et après les phases de jeu. Pendant les phases de jeu, il est difficile de placer de la RA sur un sport qui, comme le basket, se joue très vite. C’est quasiment mission impossible.

 

Pensez-vous que le public se tourne vers ce type d’application uniquement pour le tester ou se dit-il qu’il répond à ses envies et que tel sera le futur du média sportif ?

Patrick Jeant : Moi, je parle de broadcast et là, ce qu’on essaie, c’est que cela se voie le moins possible, que tout soit complètement transparent pour la personne qui regarde. Au niveau vécu, c’est davantage sur mobile que l’utilisateur peut faire sa propre expérience. Du coup, c’est un petit peu différent.

Philippe Bornstein : J’ai le sentiment que, concernant les usages, par rapport au couplage de ce flux télé, pour la production de l’image ou sa publication sur le poste de télé, on en est qu’au tout début de l’histoire. Les usages de la RA qui ont touché le grand public ne sont pas ceux-là, mais ils ont un vrai potentiel pour augmenter notre expérience en tant que spectateur.

Les usages les plus connus c’est, primo, Pokemon Go, une chasse au trésor pour trouver un personnage célèbre et collectionner. C’était il y a deux-trois ans et cela a remporté beaucoup de succès (la nouvelle version avance plus timidement). Secundo, ce qu’on appelle le virtual try-on ou les filtres sur Snapchat, Instagram, Facebook, pour faire un truc fun, augmenter son visage et partager cette expérience avec sa communauté ou le virtual try-on qui permet de faire du maquillage, mettre un chapeau, des lunettes, etc. Cette facilité et la capacité à simuler le monde pour nous faciliter notre décision d’achat le cas échéant ou d’engagement pour partager avec nos communautés. Et c’est évidemment l’objectif des marques pour des usages B to C de propager ce genre de choses.

Autrement dit, les usages qui consisteraient à être au stade avec son device smartphone ou demain ses lunettes ou son poste de télévision pour augmenter son expérience, n’en sont qu’à leur tout début. Ces technologies sont puissantes, mais nécessitent des contraintes de mise en place importantes. C’est mon analyse de ce qui se passe actuellement en France, mais aussi aux États-Unis. Nous n’en sommes qu’au début de l’histoire, les devices ne sont pas encore là, la 5G n’est pas encore disponible pour rendre tout cela fluide, le potentiel d’immersion est véritablement très pertinent à mon goût.

 

En gros, on est encore limité, techniquement parlant, pour avoir quelque chose de mainstream, mais dans un futur proche, on pourrait…

Philippe Bornstein : Pour l’expérience utilisateur oui, mais au niveau de la production en studio, là nous sommes dans un contexte plus facile à gérer, cela existe déjà. Si vous avez regardé les masters il y a deux jours, la balle de tennis en réalité augmentée pour voir son flux et qu’elle sorte ou touche la ligne, etc., ils le font quasiment en live et c’est de la réalité augmentée pour être broadcastée.

David Mosca : Pour la partie broadcast, je suis complètement d’accord, le niveau technique est là, on le voit sur toutes les chaînes de télé aujourd’hui, TF1, France Télévisions, M6. Toutes ont mis en place un système de RA. Il faut donner du contenu, illustrer les propos journalistiques. Tout le monde l’a compris et s’y attelle. La grosse difficulté aujourd’hui, c’est le temps humain pour le réaliser. Une scène de trente seconces à une minute sur le JT de vingt heures va prendre plusieurs heures, voire plusieurs jours pour pouvoir illustrer ce moyen. On sait tous qu’aujourd’hui le news est très rapide. Imaginez que vous ayez besoin de faire une séquence dans trois jours. Si cela vous prend deux jours de préparation pour illustrer sur Unreal ou Unity l’élément, l’opération peut s’avérer complexe.

 

Justement, nous avons parlé des émissions télévisées, du sport. Je vous propose d’aborder maintenant une autre vision du live qui n’est plus le broadcast, mais le temps réel, à savoir l’utilisation de la réalité augmentée et d’hologrammes dans le domaine du spectacle, que ce soit le théâtre, le spectacle vivant ou les expériences en plein air.

Laurent Loiseau : Aux Invalides, en novembre de l’année dernière, lors des commémorations de la Première Guerre mondiale, nous avons mené une expérience intitulée « Immersion 14-18 » [1 000 visiteurs par jour, lauréat du Start-up Contest du Sitem 2019, NDLR]. L’objectif était de rendre ludo-éducative une carte géante créée en collaboration avec Michelin et avec laquelle nous avons voulu finalement donner vie à un espace 2D pour restituer la magie de l’histoire. Le succès fut absolu auprès des jeunes générations. Dès lors que les gens téléchargeaient, grâce à la valise 3G-4G mise dans la tente d’accueil et aux tablettes de prêt, leur appropriation de l’histoire était infiniment plus importante. Tout cela préfigure la visite de musées, d’espaces d’exposition à but ludo-éducatif pour multiplier le temps d’attention.

Dans les espaces satellites à la carte géante, nous avions mis des photos d’archives sur ce qui s’était passé pendant la guerre au musée de l’Armée et aux Invalides. Nous nous sommes rendu compte que les gens passaient dix fois plus de temps que s’ils étaient simplement face à un cartel. Cela préfigure probablement ce qui va se passer, à la fois dans l’éducatif mais aussi dans l’espace muséal, et surtout dans le tourisme. Nous faisons le pari que, dans quelques années, on visitera un champ de bataille ou un espace historique avec des lunettes et que prendra vie toute une série d’animations. Ce qui pose des problèmes éthiques très importants. Qui va contrôler le contenu lorsqu’on ira sur un lieu de mémoire parfois dramatique ? Comment cela se passera-t-il ? Pour nous, avec la 5G, l’avenir de la RA est du côté des producteurs de cinéma, mais sous le contrôle des historiens, des animateurs, des éducateurs qui vont devoir créer des choses pertinentes.

 

On parlait de la difficulté de placer des éléments virtuels mélangés avec le réel, ce qui est le principe même de la réalité augmentée. Lorsqu’on conçoit une expérience grand public comme celle-là, en plein air, quelles sont les contraintes techniques ?

Laurent Loiseau : La météo ! C’est évidemment la météo qui pose le maximum de problèmes ; s’il pleut, c’est moyen… Autrement, il n’y a pas eu beaucoup de contraintes techniques. Nous avons l’avantage de travailler avec des animations très simples, que l’on peut faire réaliser en quelques heures ou jours, dès lors qu’on a l’archivage et l’information source validée scientifiquement. On peut intégrer une 3D, un 360 °, un paysage à 360 °, une animation en 3D très facilement dans les serveurs. Et ce n’est pas lourd.

La création est facile dès lors que l’on n’est pas dans un univers de reconstitution virtuelle monstrueux, comme le font très bien des sociétés dans des châteaux (à Vincennes, par exemple), mais qu’on propose une expérience utilisateur qui rend le visiteur totalement acteur de sa visite. Cela a très bien fonctionné avec les familles qui restent en contact puisque, contrairement à ce qui se passe en réalité virtuelle, en réalité augmentée les visiteurs ne sont pas séparés de la réalité. On peut parler avec son professeur, ses parents, ses amis. On va à la chasse aux œufs. Pour les tout-petits, c’est absolument génial. Ils passent des heures à aller à la chasse aux œufs sur des points, signalés ou pas. Sur notre carte géante, très peu de choses étaient signalées. On avait énormément d’informations à aller chercher. Et puis une discussion, une organisation, vraiment facilitées avec les enseignants qui ont adoré ce système.

 

Je sais, Philippe, que tu as pas mal d’exemples en tête dans ce domaine, notamment dans le milieu du théâtre et de la scène…

Philippe Bornstein : Oui, je pense en particulier à une technique déployée par une start-up israélienne à Londres, aux États-Unis, pas encore en France je crois. Nous sommes dans une pièce de théâtre, nous sur la scène et vous dans la salle. Vous avez un cardboard réalité augmentée, comme celui de Google, pas pour faire de la VR mais de la RA, donc avec une caméra, un smartphone à l’intérieur et la scène est vierge. Sur cette scène, il n’y a que deux acteurs. Au travers du cardboard et de l’équivalent d’un casque de réalité augmentée, toute la scénographie, le story-telling, va être présenté. On a un énorme chat qui apparaît, les comédiens sont synchronisés par rapport à ce que voient les spectateurs à travers leurs « lunettes » ou téléphones. On va créer cette illusion, cette magie, où finalement le digital, le virtuel, s’associent au réel de façon synchronisée. On ne fait plus la différence avec le réel.

L’objectif final de la RA est d’oublier la technologie pour créer cette immersion cognitive qui explique qu’on ne fait plus la différence. On voit le monde en 3D, comme on se voit nous-mêmes en 3D, avec nos deux yeux puisque nous percevons le relief. Ces expériences se font au théâtre, c’est bien sûr le tout début, mais aussi sur des défilés de mode et à l’occasion de concerts. Cette expérience est synchrone, c’est-à-dire que tous les spectateurs doivent voir la même chose en même temps. Des dispositifs techniques un peu spécifiques, et on vit une expérience non plus seul, mais collectivement.

Le stade d’après sera de partager cette expérience, d’être représenté dans cette expérience de façon immersive et collaborative. Il y a des technologies qui commencent à approcher ce genre de choses autour de la téléprésence en 3D volumétrique animée, pour prendre la chronologie d’infos, avec de la RA évidemment, afin de créer cet ancrage qui fait qu’on voit le monde. Il est statique, ce n’est pas quelque chose d’ancré comme cette chaise. Si je me rapproche de cette chaise, elle ne va pas bouger, mais ma vision va changer. La RA nous le permet et des technologies maintenant nous le permettent relativement facilement, bien qu’il reste assez compliqué de faire des objets animés 3D photoréalistes, notamment sur tout ce qui tourne autour de l’homme, les objets, les lieux. Nos visages, nos expressions, tout cela doit être produit en temps réel, idéalement pour générer ce qui va nous emmener dans l’engagement, c’est-à-dire l’émotion.

 

Et là, on part sur un sujet un peu plus large qui est la création et la gestion d’avatars animés en temps réel, lesquels remplaceront peut-être par la suite nos présentateurs tels qu’on les connaît, des humains qui demain seront peut-être des personnages en 3D…

Philippe Bornstein : C’est plus facile de faire un avatar puisqu’on accepte dès le départ de dire : « On va transformer la réalité pour faire quelque chose de ressemblant ». Pour faire un personnage 3D volumineux holographie en RA, là il faut être photoréaliste. Sinon, l’émotion ne passe pas, l’illusion de la réalité digitale comme dans le monde présent disparaît immédiatement. C’est un challenge technologique, mais des choses commencent à sortir.

 

Quid de l’installation sonore pour améliorer l’impression d’immersion ?

Patrick Jeant : Des dispositifs existent, la société BlackTrax fabrique des capteurs actifs que l’on peut suivre en direct. Sur les gros spectacles, généralement les comédiens en portent ; c’est ce qui permet d’avoir les poursuites qui suivent automatiquement les personnes. Au niveau son, il en va de même, cela permet de spatialiser et d’envoyer l’information, la position de la personne pour changer l’expérience de celui qui regarde. Ces dispositifs ne sont pas encore communs, parce qu’ils sont chers. Ils ne sont déployés que sur de gros spectacles.

Philippe Bornstein : Le son est une partie très importante de l’expérience. Le son binaural en RA, au travers de l’expérience côté utilisateur, est un format standard totalement maîtrisé, encore faut-il le déployer. Pour vous donner un exemple d’application existante, je place sur le sol tout un concert, des musiciens, des instruments, et en fonction de mon déplacement avec ma caméra, mon smartphone, je vais entendre le son d’un instrument plutôt qu’un autre. On spatialise l’univers autour de nous, l’espace, avec des sons volumétriques qui augmentent évidemment cette immersion et, le cas échéant, l’émotion, donc l’engagement. Au passage, rappelons que les lunettes vont souvent disposer d’écouteurs. S’il faut remplacer son smartphone par des lunettes de RA, il faudra bien sûr avoir le son. Les technologies sont nombreuses, notamment celle de sons directement transmis aux cavités osseuses pour ne plus émettre un son qu’on entendrait, mais un son qui arriverait directement, et de très bonne qualité, dans nos capacités cognitives.

 

Dernière question, selon vous la RA est-elle l’avenir des médias, que ce soit le broadcast, le live, le sport, le spectacle vivant, etc. De quelle application en RA rêvez-vous ?

David Mosca : Oui, je pense que l’avenir est là, que l’on assiste vraiment aux balbutiements, même si cela devient réel dans différents marchés. En tant qu’amateur de sport, je trouve hyper intéressant d’avoir des informations directement sur tel ou tel joueur. Personnellement, ce dont j’ai envie dans les années à venir est déjà là, c’est juste qu’il faut que cela soit plus facile à mettre en œuvre.

Emmanuelle Roger : Ce que je vois bien arriver, ce que j’aimerais bien voir arriver dans les prochaines années, c’est tout ce qui a un rapport avec la vidéo volumétrique en live. Imaginez une vidéo en 3D, pas une vidéo 360, une vraie vidéo en live. En matière de sport, des choses sont tentées par Intel, notamment pour le FC Barcelone. Je ne sais combien de vidéos sont placées autour du stade pour capter en volumétrique le match. Pendant la coupe du monde de rugby, Canon a d’ailleurs parlé de ce qu’ils faisaient sur la vidéo volumétrique, j’étais hyper surprise du rendu. J’imagine bien qu’à terme, avec des lunettes de RA, on puisse complètement projeter le match dans son salon, soit à échelle réduite sur sa table basse, soit à échelle réelle pour s’immerger du point de vue des joueurs, avoir des vues plus globales, faire tourner cela sur sa table basse. C’est un contenu auquel je crois. Ce serait vraiment cool d’avoir cela en tant que fan chez soi !

Patrick Jeant : De mon côté, c’est un peu la même chose, il y a beaucoup de travaux en ce moment sur la capture volumétrique. Et du coup, je pense que c’est une meilleure solution. Si vraiment aujourd’hui on veut animer un personnage en 3D, avoir vraiment les détails, les pores de peau, un comportement humain à refaire surtout, c’est hyper chronophage et cela coûte énormément d’argent. Du coup, la capture volumétrique permet de capter une animation d’une personne et de pouvoir la reproduire dans une scène en 3D. Ce qui manque aujourd’hui cruellement, ce sont des outils pour rendre tout cela facile. Les premières solutions commencent à arriver, on a des choses de bonne qualité. Intel est sur le broadcast, mais on a aussi et surtout Microsoft qui a des sets de capture d’un très bon niveau de qualité. Il nous manque des outils pour éditer ces mouvements. Aujourd’hui, ou vous reproduisez le mouvement quasi en complet, mais il est difficile de monter ces mouvements comme on pourrait le faire sur MotionBuilder, ou dans un logiciel d’animation, et c’est vrai que l’on retombe du coup sur des contraintes techniques fortes, demandant du temps de préparation et finalement de l’argent.

Laurent Loiseau : Nous sommes effectivement au tout début de l’edutainment. La RA va être certainement très intéressante, déjà les Hololens le préfigurent. Mais dans l’edutainment et la vulgarisation scientifique, on va passer vraiment à une application des neurosciences. Lesquelles disent, et aujourd’hui c’est prouvé, que plus une émotion est suscitée, plus j’active mes zones cérébrales qui vont me permettre de mémoriser et surtout d’avoir envie d’aller plus loin.

La culture classique, l’histoire, la géographie, toutes les matières, toute la révolution des musées va avoir lieu maintenant. On ne va plus visiter un musée en passant cinq secondes devant une toile, dont trois devant le cartel. On va voir Léonard de Vinci en train de peindre La Joconde, on aura envie d’aller la voir au musée. C’est ça l’idée, on va mettre à disposition des codes qui ne seront plus ceux de la nouvelle génération. En revanche, les outils de la nouvelle génération vont permettre effectivement de susciter l’envie, d’aller beaucoup plus loin. Moi, j’aimerais déployer des « Joconde » géantes, que ce soit La Joconde ou Le jardin des délices de Jérôme Bosch, dans les lieux où on ne va pas au musée. Et vraiment, je vous fiche mon billet que les gens iront au musée beaucoup plus souvent, avec un sentiment de s’être approprié un territoire. Et le territoire, c’est aussi l’œuvre d’art.

Philippe Bornstein : Quant à moi, j’estime qu’aujourd’hui la RA n’est pas encore un média au sens où elle n’est pas un moyen universel d’accéder à un contenu de façon massive, il n’y a pas de modèle économique aujourd’hui, comme on peut l’avoir avec la vidéo devenue un média. La RA ou même la VR et le 360 sont des formats pour raconter des histoires. Mais, à la différence de la vidéo (et je viens de ce monde de la vidéo et du live que j’ai quitté pour la RA), j’ai trouvé avec la RA de quoi faire des choses tout à fait nouvelles et pertinentes pour générer ces émotions. Comme disait Rousseau, « Si c’est la raison qui fait l’homme, c’est le sentiment qui le conduit ». Nous agissons sur la base de nos émotions et pas de façon objective, sur la base de notre analyse. Au-delà de voir et d’écouter, la vidéo nous donne cette capacité à attirer, à maintenir notre attention une fraction de seconde, par les pubs mais pas seulement.

Quelque part, quand on y réfléchit, la RA nous procure d’autres capacités proprioceptives qui vont avoir une influence sur nos capacités à générer ces émotions ou à analyser. Se déplacer, partager, communiquer, jouer et faire appel à d’autres sens que la vue et l’écoute comme le fait la vidéo. C’est ça qui fait que l’on prend la main sur l’expérience, que l’on est dans une communication non plus subie mais, si elle est réussie, désirée. Le format narratif qu’est la RA n’est pas encore un média, mais le deviendra, cela prendra encore du temps. La RA est un moyen de raconter de façon nouvelle des histoires avec des contraintes liées, un, à la création du contenu et deux, à sa capacité à le publier et à le rendre accessible.

L’un des freins de la RA est l’accessibilité au contenu. Plus personne aujourd’hui ne veut télécharger d’applications dont la durée de vie atteint cinq jours en moyenne d’après les statistiques. Il faut donc rendre l’accessibilité facile. Le WebAR, qui est un format de publication, le permet sans avoir d’application à télécharger. Ce qui est souvent une contrainte dans un univers B to C. On peut aussi aller sur les applications sociales. Je vous rappelle que Facebook, Snapchat, Instagram, sont capables de nous proposer des expériences de RA, j’en ai parlé tout à l’heure avec les filtres, et on peut faire beaucoup plus de choses encore avec ces applications gratuites. Il suffit de créer son compte sur Spark AR.

Facebook voit aujourd’hui dans la réalité augmentée une opportunité pour coller des post-it autour de nous dans l’espace, mais aussi les partager avec nos communautés. Il s’agit aussi d’un enjeu de société avec des aspects éthiques, de RGPD Privacy. À qui appartient non seulement l’expérience, mais aussi la captation faite avec nos caméras de ce qui est remonté sur les serveurs des éditeurs, lesquels peuvent ainsi se les approprier ? Mais cette parenthèse sort quelque peu du sujet du live…

 

QUI SONT-ILS ?

 Emmanuelle Roger est la cofondatrice et CEO de Immersiv.io, start-up spécialisée dans le développement d’expériences de réalité augmentée sur mobile et sur le net à destination des fans de sport. Comme telle, la société s’attache tout particulièrement à leur donner plus d’immersion et d’interactivité, qu’ils se trouvent au stade ou chez eux.

Patrick Jeant a passé 28 ans au sein d’Eurosport en tant que directeur de l’innovation, avant de créer sa propre structure, Yewth Studios, qui développe de la réalité augmentée 360 et de la production virtuelle.

David Mosca était venu représenter la société Ross Video, fabricant de matériel audiovisuel basé au Canada, spécialisé (entre autres) dans la fourniture de matériel pour faire de la réalité augmentée et du studio virtuel.

Philippe Bornstein est le CEO de l’agence Netineo qui se concentre sur tout ce qui est expérience immersive, en particulier la réalité augmentée et le live. Netineo s’appuie sur différentes technologies, mais aussi sur des solutions créatives.

Laurent Loiseau est le fondateur d’Intuit’art, entreprise se consacre au figital, c’est-à-dire l’alliance entre une scénographie et une expérience de réalité augmentée, autrement dit à l’interaction des deux domaines dans une scénographie sous la forme d’une double immersion.

 

Les conférences du SATIS 2020 sont disponibles en VOD. Vous pouvez découvrir le programme ici   et vous inscrire pour accéder à leur replay ici . Vous pouvez aussi accéder directement aux émissions Talks, Coulisses et Happy Hour directement depuis le site www.satis-expo.com .

Article paru pour la première fois dans Mediakwest #36, p. 100-107. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors série « Guide du tournage) pour accéder, dès leur sortie, à nos articles dans leur intégralité.


Articles connexes