Lors de notre première visite il y a cinq ans, Xavier Gibert, nous expliquait comment RFI Labo, cette unité de production qu’il pilote au sein de Radio France International (Groupe France Médias Monde) avait réussi à exploiter les formats audio immersifs et notamment du binaural dans le cadre de ses productions. Il nous accueille aujourd’hui dans son studio dédié au son 3D dont le monitoring a été repensé. En effet, en complément d’une configuration Auro 3D redéployée en 7.1.6, le studio reçoit aujourd’hui un monitoring Dolby Atmos 7.1.4 assuré par un ensemble d’enceintes Genelec…
Avant de revenir sur les nouveaux équipements, un mot sur les missions du département RFI Labo ?
Xavier Gibert : RFI Labo emploie sept personnes à temps plein. Nous devons à la fois expérimenter les méthodes d’écriture, assurer une veille technologique sur l’évolution des outils et le nouveau matériel et créer nos programmes, mais nous restons malgré tout une petite unité de production par rapport aux autres unités du groupe. Nous assurons également toute la partie prise de son musique pour RFI et nous maintenons nos propres activités liées à l’audio 3D.

Quels types de production assurez-vous au quotidien ?
Il y a d’abord les fictions radio conçues pour permettre l’apprentissage du français. Elles sont disponibles en binaural de façon à ce que l’auditeur muni d’un simple casque, se retrouve dans des conditions d’écoute au plus proche de la vraie vie. Il peut ainsi bien percevoir l’ensemble des éléments informatifs afin de mieux saisir le contexte de ce qu’il a à apprendre. Ensuite, nous travaillons sur des coproductions. Nous assurons depuis sept ans la captation son et le mixage en binaural du magazine Sequences-Electronic Live Sessions (une série de concerts électro filmés en 360° diffusés sur CultureBox, ndlr) dont c’est la huitième saison réalisée en coproduction avec Milgram. Sinon, nous avons actuellement un partenariat avec La Seine Musicale dans le cadre de leur exposition immersive « À l’écoute des poissons et autres crevettes bruyantes » présentée à compterdu 16 octobre prochain dans leur espace d’écoute binaurale SeineLab et dont nous avons assuré le mixage. Et puis il y a l’émission Session Lab qui est devenu un peu notre vaisseau amiral. Initiée au départ comme une preuve de concept sur la manière d’amener la musique enregistrée pour la stéréo dans l’univers du son 3D, l’expérimentation est devenue de fil en aiguille une véritable émission, dans laquelle la journaliste Hortense Volle rencontre les artistes chez eux ou dans un lieu choisi par eux.

Et en quoi consiste le dispositif de prise de son ?
Sur le terrain, nous utilisons des micros main HF pour les ITV réalisés par les journalistes, et des micros multicanaux placés à distance pour permettre de baigner les voix mono dans une ambiance immersive 3D qui pourra, suivant les cas, être une Croix IRT, un double MS, un Ambeo Sennheiser etc. L’ensemble est enregistré sur un multipiste Zaxcom.
Pour illustrer la charte sonore de l’émission, Xavier Gibert lance alors un épisode de Session Lab où se succède interviews et séquences musicales. Le placement spatial durant les interviews est saisissant…
On se sert vraiment de l’espace que nous offre l’immersif pour composer notre émission de radio et plutôt que de jouer sur les volumes, on joue sur le placement spatial des éléments, comme ici la musique.

Nous sommes ici dans un studio équipé avec un double monitoring : Auro 3D 7.1.6 et Dolby Atmos 7.1.4. Pour assurer cet ensemble aux côtés des enceintes Neumann de la série KH déjà en place, apparaissent de nouvelles Genelec (7 x 8 361 en bas, 4 x 8 341 au plafond plus un Sub 7380). Pourquoi ce changement ?
Nous avions besoin de garder la compatibilité Auro 3D donc nous avons gardé pour cela six enceintes KH Neumann au plafond et le processeur Trinnov permet d’harmoniser l’ensemble. Pour passer en Dolby Atmos, nous avions besoin de trouver d’autres types d’enceintes car les modèles Neumann KH que nous possédons ne se font plus (la version II de la série KM actuellement proposée par Neumann est différente, ndlr). Je cherchais des enceintes où il n’y ait pas de disparité en fonction des fréquences quand on s’éloigne de l’axe. Et moi qui n’étais jusqu’à présent pas un grand fan de la signature sonore du constructeur, quand j’ai écouté les nouvelles enceintes coaxiales de chez Genelec et en particulier les 8361, j’ai vraiment senti qu’il se passait quelque chose. L’équilibre tonal et le respect de phase est vraiment différent de ce qu’on avait avant.
Pour nous, avoir des enceintes naturellement très équilibrées, c’est important. D’une part, la correction assurée par notre processeur Trinnov, reste minime, mais surtout, nous bénéficions aujourd’hui d’un sweet spot, bien plus large qu’auparavant. On peut donc travailler confortablement à plusieurs. Réalisateur, producteur, mixeur, personne n’a le sentiment d’être exclu, tout le monde entend la même chose et peut donc participer à la séance à armes égales. Aujourd’hui, la précision de spatialisation que l’on obtient nous permet de gérer les différents objets sonores de façon quasiment naturelle.

Et pourquoi passer en Dolby Atmos ?
Nous nous devons d’aborder l’ensemble de ce qui se fait dans le monde de l’audio. Le mode objet dans le format ADM devait rentrer dans notre chaîne de production, donc nous avions deux solutions : soit travailler avec le Fraunhofer Institute, soit avec Dolby. Pour l’instant nous n’arrivons pas à travailler avec Fraunhofer, du moins pas avec les outils de production disponibles actuellement, donc nous nous sommes tournés vers Dolby. Il faut dire que notre cahier des charges est particulier. En tant que radio, nous devons diffuser en stéréo pour notre auditoire broadcast qui reçoit nos programmes via nos émetteurs, mais nous devons aussi fournir des programmes en binaural pour nos clients qui nous suivent en digital sur les différentes plates-formes : RFI, Radio-France, Spotify, Deezer, SoundCloud, YouTube, Apple Podcast, etc. Enfin nous devons tenir compte de notre système d’archivage et de nos autres studios qui sont en multicanal. Donc avant de passer en Dolby Atmos, quand nous produisions un programme en Auro 3D 7.1.6, nous devions faire une passe de mix en 7.1.6, puis une adaptation du mix pour le binaural de synthèse et encore une autre adaptation pour effectuer la réduction stéréo. L’objectif était donc de réduire ce temps de production, or ce qui peut le permettre, c’est le mode objet. Nous nous sommes donc tournés vers Dolby, où nous avons beaucoup travaillé avec Benoît Leteneur pour pouvoir intégrer le mode objet dans notre chaîne. Aujourd’hui, quand on couche un mix dans un studio en 7.1.4 en mode Dolby Atmos, on peut manipuler nos objets pour pouvoir réaliser simultanément un mix stéréo pour alimenter l’antenne et un mix en binaural de synthèse pour alimenter le digital, et un fichier ADM pour l’archivage. C’est donc essentiellement pour optimiser notre process que nous avons intégré le système Dolby dans la chaîne de production.
Mais j’ai vu que vous étiez répertoriés sur le site Dolby pour le mixage Atmos. Vous mixez à ce format ?
Oui, et c’était l’autre motivation pour nous équiper en Dolby Atmos, car nous avions de la part de musiciens avec qui nous travaillons, des demandes pour mixer dans ce format. Par exemple, Chineese Man (Label Chineese Man Records) nous a confié le mixage Atmos de We’ve Been Here Before, leur dernier album disponible sur Apple Music. Encore une fois, notre esprit, c’est de rester ouverts aux nouvelles technologies, aux nouveaux process.
Un format de diffusion
Mais le Dolby Atmos n’est pas pour l’instant un format de diffusion pour vous ?
Ce sera l’étape suivante mais qui ne dépend pas de nous au Labo. Nous attendons le format de diffusion qui corresponde à nos attentes et qui soit à même de proposer toutes les fonctionnalités utiles à l’auditeur : changement de langue, adaptation au système d’écoute, etc.

Que dire du programme de recherche engagé avec l’éditeur français Noise Makers ?
Nous utilisons une partie de notre crédit d’impôt recherche pour financer avec des éditeurs de logiciels, des outils qui n’existent pas encore. Ainsi, il y a deux ans, nous avons lancé la collaboration avec Noise Makers pour la réalisation du Binauralizer Studio 2 (un logiciel de binauralisation capable de prendre en compte en ensemble de formats multicanaux en entrée (7.1.2, 7.1.4, … 22.2) et de les convertir en binaural, ndlr). La version 2 intègre entre autres une BRIR (Binaural Room Impulse Response) permettant de créer une salle d’écoute virtuelle avec effet de salle que nous avons aussi fait évoluer en termes d’ergonomie. Grâce à cela, lorsque je suis en phase de binauralisation, je peux changer la pièce dans laquelle j’écoute la binauralisation. Le deuxième projet, c’est la création du plug-in de réverbération multicanal Studio Verb sachant qu’il existe déjà des réverb multicanales mais nous souhaitions disposer d’un outil qui nous permette lorsque nous sur un lieu de captation, de ramener une réponse impulsionnelle directement exploitable dans le mix en 7.1.4. Parmi les contraintes de notre cahier des charges, il était hors de question de déplacer sur site douze haut-parleurs, ni de déplacer le haut-parleur autour du micro. Enfin, pour rester compatible avec nos enregistreurs, il nous fallait un format qui tienne dans huit canaux maximum. Nous avons donc participé à des tests perceptifs visant à comparer le rendu de différents formats de captation. Parmi eux, la tête KU100 Neumann, le système ESMA 3D, l’Ambeo de Sennheiser, le prototype Feichter Audio (un micro ambisonique d’ordre 7 comprenant 64 capsules Mems, ndlr), ou encore le micro SPC qui est une reproduction du micro utilisé par Facebook pour leurs études sur l’audio immersif. Nous avons alors fait usiner par Cinela une petite sphère dotée de neuf capsules DPA 4060 Omni… Grâce au travail de l’équipe, on a pu constater que le micro Ambeo (FOA ordre 1) pouvait être un compromis intéressant parmi tous ces systèmes de captation, mais avec un système d’upscale et de capture en trois passes. En pratique, il s’agit de diffuser, trois fois le même sweep d’une vingtaine de secondes via un haut-parleur qui reste fixe, en déplaçant à chaque fois le microphone selon trois points de mesure qui vont former un triangle équilatéral. Ces réponses sont ensuite envoyées à Noise Makers pour traitement avec un résultat directement exploitable dans le plug-in Studio Verb (cf encadré). Les possibilités de création sonores sont impressionnantes : on peut faire bouger un objet dans une réverbération qui correspond à l’empreinte acoustique du lieu de tournage. Alors bien sûr, il existe déjà de belles réverb muticanales que nous utilisons, mais avec Studio Verb, je peux vraiment capter la salle de bain du lieu de tournage, revenir en studio et faire évoluer mes personnages dedans. La classe !
Vous allez donc vous créer une collection d’IR, j’imagine…
Absolument, et notre bibliothèque sera publique et accessible à tous. D’ailleurs c’est une vraie mission de service publique qui correspond à notre positionnement : investir dans la recherche pour obtenir un outil que nous n’avons pas et en même temps faire avancer la technologie et les pratiques…
Extrait de l’article paru pour la première fois dans Mediakwest #59, p. 88 – 92