« L‘IRT b<>com, ce sont quatre grands activités. La première tourne autour des formats et des codecs audio et vidéo. La deuxième traite essentiellement de tout ce qui est interaction immersive ; la réalité augmentée, la réalité virtuelle en sont les principaux thèmes. La troisième, confiance et sécurité numérique, a à voir avec les problématiques de contenu, mais aussi de respect, par exemple de la vie privée des personnes. La dernière activité concerne l’usage et l’acceptabilité ; qu’est-ce qui fait que toutes les technologies sur lesquelles on travaille vont être acceptées, utilisables, commercialement viables aussi par le grand public et les professionnels.
Quand on parle de délivrer du contenu, on entend délivrer une expérience, cela commence avant tout par une capacité à produire, à générer du contenu, effectivement tout ce que nous faisons aujourd’hui. C’est particulièrement vrai dans le domaine de l’audio, cela concerne la capacité à produire du contenu dans des formats avancés qui vont pouvoir être utilisés en compagnon de l’ultra-définition ou, tout simplement, en format pour la réalité virtuelle.
B<>com a déjà introduit sur le marché plusieurs produits. Je vais en nommer quelques-uns. L’Ultra Player est une solution de play-out ultra HD, assez compacte, qui permet de gérer des contenus ultra définition en temps réel ; elle va supporter le HDR, par exemple. Nous avons aussi développé une solution, l’Ultra Marker, qui permet de faire du watermarking sur les contenus avec un paradigme qui est assez innovant. Ce que nous avons implémenté repose sur un algorithme public et, finalement, c’est plutôt tout ce qu’on met autour qui va faire qu’on obtient une solution propre à b<>com. Une démarche quelque peu en opposition de phase par rapport à ce que font les acteurs du marché aujourd’hui. Et puis, nous allons introduire prochainement, lors de l’AES [Audio Engineering Society Convention], qui se déroulera du 4 au 7 juin à Paris, une série de plug-ins audio qui permettront de produire du contenu dans un format qu’on appelle High Order Ambisonics (HOA), dont on pense que c’est un format plutôt idéal au regard de tout ce qui concerne la réalité virtuelle.
Souvent l’audio, hélas, fait partie des choses qui sont vues ou traitées de manière un peu tardive par rapport à la vidéo. Pour la réalité virtuelle, il est important de noter que notre champ de vision est à 120°. Quand on regarde quelque chose, on voit toujours à 120°. Avec, par exemple de la 360, on va pouvoir tourner la tête et avoir une image qui est asservie à la position de celle-ci. Ceci dit, on entend toujours à 360°, toujours. Là, en ce moment même, il y a une conversation derrière moi, je l’entends.
Ça, c’est quelque chose d’important à comprendre. Ce format High Order Ambisonics, qui est nativement sphérique, est extrêmement pertinent par rapport à des problématiques de réalité virtuelle. On peut l’associer à des traitements qui vont être liés, par exemple, à ce qu’on appelle les effets champs proches, le fait d’avoir le sentiment que quelqu’un chuchote à l’oreille par exemple, comment on va pouvoir gérer ce sentiment d’éloignement. Finalement, faire une captation dans un format sphérique – c’est véritablement un format – apporte un niveau de réalisme qui est très important et nécessaire aujourd’hui par rapport à la réalité virtuelle et à la capacité à faire de l’audio 360 et pas uniquement de la vidéo 360. On voit aujourd’hui beaucoup de vidéos 360. Ce qui est assez frustrant, c’est que souvent, en terme d’audio, on a une stéréo qui n’est pas terrible, qui nous frustre par rapport à l’expérience rendue en terme de contenu réalité virtuelle. L’intérêt du format High Order Ambisonics réside dans sa capacité à pouvoir être rendu sur des configurations très différentes. On peut rendre un format High Order Ambisonics sur un set-up 5.1 multicanal tel qu’on l’a à la maison, 7.1 et, pourquoi pas, 22.2. Mais surtout, ce qui est intéressant, de par une opération relativement simple, c’est quelque chose qui est très efficace à implémenter, qui est très compact, qui simplement a un coût qui est relativement faible, la capacité à pouvoir être binauralisé.
La binauralisation, c’est la capacité à partir d’un format tel que le High Order Ambisonics par exemple, de pouvoir restituer cette spatialisation sur deux écouteurs et d’avoir cette sensation de restitution complètement immersive. En mode élisant par exemple, via un filtre qu’on appelle une HRTF, qui est la fonction de transfert associée à la tête, le fait de restituer un son qui est très proche physiquement de la façon dont notre oreille le perçoit.
Cela fait plusieurs années que nous travaillons sur ce sujet-là. Notre pari était de dire : finalement, travailler sur un nouveau format c’est bien, travailler sur les outils qui vont permettre de générer le contenu dans ce format c’est juste essentiel. Tel est notre choix. C’est la raison pour laquelle nous avons développé ces plug-ins qui vont pouvoir être interfacés avec la plupart des stations de travail du marché, ce qu’on appelle les DAW, Digital Audio Workstation, à travers des formats qui sont tout à fait connus et standards pour les plug-ins, de pouvoir générer du contenu. Nous avons pas mal échangé avec des acteurs de la réalité virtuelle, des gens qui tournent, nous avons effectué des feed back, effectué des tests, etc. Lors de la prochaine conférence de l’AES, nous introduirons sous forme de produit ce plug-in. »