Depuis quelques mois, les étudiants et enseignants-chercheurs de Louis-Lumière disposent au sein de l’école d’une salle multicanale permettant d’expérimenter différentes techniques de spatialisation du son dans un environnement modulable de vingt-cinq enceintes.
Préparer les étudiants aux techniques de pointe
Le besoin de cette nouvelle salle multicanale correspond à l’évolution de la maquette pédagogique, notamment celle qui a été pensée et validée à la rentrée 2020. Jusqu’à présent, le son 3D représentait deux fois trois heures de cours théoriques et deux ou trois TD.
Alan Blum précise qu’« il y a une telle explosion autour du son orienté objet que l’on se devait de pouvoir tester ces techniques et se former dessus. Nous avons tous les ans seize élèves en master son qui doivent faire un mémoire de recherche. Lorsqu’il s’agit du binaural, l’équipement est assez simple, il suffit d’un casque et la technologie est mature, mais lorsqu’il s’agit de WFS (Wave Field Synthesis) ou d’ambisonie, il faut avoir huit, seize ou trente-deux haut-parleurs. À chaque fois, nous avons dû le faire avec des partenariats et c’était forcément plus compliqué à mettre en place ».
Cahier des charges
Frank Jouanny, responsable exploitation, nous décrit le projet d’intégration. Il ne s’agit pas d’une salle de cours, le besoin était d’accueillir un ou deux élèves plus un professeur. La salle mesure environ 6 m de long sur 4,50 m de large et 3,20 m de haut.
Il fallait pouvoir reconfigurer complètement la salle en une demi-journée pour le besoin d’un cours à la demande d’un professeur. L’installation se devait donc d’être entièrement modulable et éventuellement transposable dans une salle plus grande.
Frank Jouanny précise : « Il a fallu écouter toutes les requêtes des professeurs et il y eut de nombreux débats sur le nombre d’enceintes pour proposer un maximum de configurations possibles tout en restant dans l’enveloppe budgétaire ». Un des points importants, notamment porté par Thierry Coduys, artiste sonore intervenant à l’école Louis-Lumière, était de ne pas perdre en qualité sonore au détriment du nombre de point d’écoute. Cela a été rendu possible grâce à la participation de la société Amadeus, qui a été très à l’écoute des besoins de l’école, et permis d’obtenir des enceintes très haut de gamme.
Des rideaux de velours lourds sont disposés tout autour de la pièce pour « matifier » le son. Il est difficile d’apporter un traitement acoustique plus sophistiqué car les sources sonores ont vocation à être déplacées en fonction des projets. Aussi, il n’est pas nécessaire de travailler à très fort niveau. D’ailleurs un système arrêt coup de poing a été mis en place pour couper le son si par erreur les enceintes se mettent à envoyer des niveaux anormalement élevés.
La construction de cette salle fait partie d’une vague d’investissements exceptionnels pour l’école avec un budget d’environ 70 000 euros. L’intégration a été effectuée par Jean-Luc Ohl de la société 44.1 spécialiste de l’intégration audio à qui l’on doit les premières salles Atmos en France, dont l’auditorum de Digital Factory, dans la Cité du Cinéma où se trouve l’école.

Rappel sur l’ambisonie
Avant d’aller plus loin, il est peut-être nécessaire d’ouvrir cette parenthèse pour définir la principale technique utilisée dans la salle multicanale. L’ambisonie est un procédé d’enregistrement et de restitution de son 3D dit « à sphère complète ». Il couvre les sources sonores situées sur un plan horizontal (2D) mais également au-dessus et au-dessous de l’auditeur. La restitution d’un son ambisonique nécessite beaucoup de canaux audio et d’enceintes, mais présente certaines commodités car son coût en puissance de calcul est très faible. Une prise de son ambisonique nécessite plusieurs micros dont la disposition permet de découper l’espace sonore en fonctions spatiales ambisoniques. La finesse de ce découpage caractérise l’ordre ambisonique. Par exemple, trois figures bidirectionnelles disposées sur trois axes x, y et z représentent l’ordre 1. Les ordres supérieurs, ou HOA (High Order Ambisonic), sont de plus en plus utilisés et des micros intégrant jusqu’à soixante-quatre capsules pour l’ordre 6 existent. Aussi, des sons mono peuvent être spatialisés avec des algorithmes pour une diffusion ambisonique.

Architecture et workflow de la salle multicanale
Le workflow est relativement simple. Les élèves importent des éléments sonores multipistes dans un PC équipé du logiciel Reaper, un DAW (Digital Audio Workstation) qui a la particularité de pouvoir traiter les pistes multicanales avec jusqu’à soixante-quatre canaux par piste, ce qui correspond à l’ordre 7 en ambisonique. L’audio est ensuite véhiculé en Dante (format de réseau audionumérique) jusqu’à un processeur Xilica qui va convertir le signal en trente-deux signaux analogiques pour les envoyer vers les amplis puis vers les enceintes. Ce DSP Xilica va aussi permettre de traiter séparément chaque canal audio avec de l’égalisation ou des délais pour du processing d’écoute, et de mémoriser des configurations. Il est piloté par une simple tablette qui permet d’agir sur les niveaux de chaque enceinte séparément ou modifier les traitements sur chaque canal depuis le poste de travail.
Les amplis, des Yamaha XM4080, amplifient quatre canaux chacun. La salle est équipée actuellement de vingt-cinq enceintes Amadeus PMX5 disposées en sphère autour du point d’écoute et de quatre subwoofers dans les coins de la pièce. Les enceintes Amadeus sont coaxiales pour éviter les problèmes de phase entre les différents haut-parleurs d’une même enceinte. La structure d’accroche permet de les placer avec précision à n’importe quel point de l’espace 3D de la salle, mais aussi de déplacer toutes les enceintes assez rapidement pour les besoins des professeurs.
Le système est facilement upgradable à trente-deux enceintes (donc trente-deux canaux). Pour les lecteurs curieux : le nombre de canaux nécessaires pour un ordre ambisonique n est (n+1)2. Aujourd’hui les vingt-cinq enceintes acquises par l’école permettent donc de reproduire les fonctions ambisoniques jusqu’à l’ordre 4.

Projets d’études et outils utilisés
À l’ENS Louis-Lumière, « les étudiants sont formés comme des ingénieurs et savent s’adapter à l’évolution du matériel », nous précise Laurent Stehlin, directeur technique de l’école. Cette salle multicanale leur permet d’explorer des terrains encore relativement vierges. Hugo Corbel, ancien diplômé de Louis-Lumière, nous présente son projet L’Heure bleue qu’il décrit comme « un paysage sonore de quinze minutes de lever du jour dans une forêt ».
L’objectif est de restituer l’espace sonore perçu dans la forêt avec les nouveaux moyens fournis par la salle multicanale. Une captation a été effectuée pendant quatre jours de 5h30 à 8h30 dans une forêt, à l’aide d’un micro Sennheiser ambisonique d’ordre 1, complété par d’autres micros envoyés dans un encodeur à l’ordre 3 (seize canaux). Le mix doit être redécodé en fonction de la salle. Le rôle d’un décodeur est de créer la meilleure perception possible en fonction de la configuration d’enceintes fournie, en utilisant principalement des filtres des délais et des gains.
Le décodeur utilisé sur ce projet est AllRADecoder (de AllRAD) qui a permis de décoder les sons sur une sphère de haut-parleurs panés en VBAP. Le VBAP (Vector Base Amplitude Panning) est une méthode qui permet de placer des sources virtuelles dans l’espace 3D grâce à la triangulation de trois enceintes. Une source peut donc être positionnée quelle que soit la position des enceintes, et la source sera donc présente uniquement dans trois enceintes.
Le plug-in Distance Compensator a été utilisé, permettant d’insérer des distances entre la position du point d’écoute et chaque enceinte en appliquant les délais et les gains nécessaire. À la lecture du mix final dans Reaper, le résultat est magnifique : un brame de cerf, une cloche au lointain, le chorus matinal des oiseaux tout autour, tous ces sons peuvent être localisés précisément lors de l’écoute très immersive, qui donne immédiatement envie de fermer les yeux.
L’ambisonie pour la créativité musicale
Yann Brecy et Samuel Robineau, tous deux étudiants en deuxième année, réalisent en 2022 deux projets artistiques. Le premier travail consiste en une prise en main de l’outil fiction en multicanal pour adapter le poème en prose de Baudelaire, Le Mauvais vitrier. Prise de son en ambisonique d’ordre 1 avec un microphone Oktava mais aussi d’une manière assez classique pour les sons proches.
Le second projet plus avancé est purement musical. Il s’agit d’un mix d’éléments sonores de style électro qui va être spatialisé avec notamment l’automation des déplacements des sons dans l’espace. Ce travail utilise principalement un outil développé par l’Ircam : Panoramix. Il s’agit d’une véritable station de mixage et de postproduction de son 3D basé sur le moteur Spat développé principalement par Thibaut Carpentier ingénieur de recherche hébergé à l’Ircam.
Le moteur Spat offre notamment des fonctions de préprocessing (delai, EQ, effet Doppler…) une réverbération artificielle ainsi que de nombreuses fonction de panning (AB, XY, MS, VBAP, DBAP, binaural, WFS, etc.). Panoramix y ajoute des fonctions de mixage et de postproduction.
Aussi nos étudiants-ingénieurs ont développé une interface logicielle, sous forme d’un patch Max, permettant à Reaper et Panoramix de communiquer ensemble (par exemple pour les écritures et lectures d’automations).
Ici le but n’est pas de reproduire la réalité comme pour un paysage sonore mais de positionner et déplacer des sons en contrôlant leur trajectoire et leur vitesse dans un espace 3D. L’effet est spectaculaire. Pour tous ces projets, une des difficultés est de restituer des sons venant d’en bas. En effet, il est difficile de placer des enceintes plus bas que le plancher.

Le son 3D à portée de main
S’il reste encore beaucoup de choses à expérimenter et à développer dans le son 3D, plusieurs outils sont déjà disponibles. Le produits Spat Revolution, basés sur le moteur Spat de l’Ircam et commercialisés par Flux, offrent différentes techniques de panning et de spatialisation pour une utilisation sur des concerts live, pour du sound design, pour les boradcasters, etc.
La société française L-accoustic propose depuis 2016 un système de sonorisation live L-ISA, composé d’un minimum de cinq grappes de haut-parleurs, alimentées par un processeur pour la répartition de son sur les grappes. Ce système propose également une console de mixage permettant de travailler avec des objets sonores. Aussi en 2018 le système Holophonix d’Amadeus a été présenté au public. Il s’agit d’un processeur de spatialisation développé en collaboration avec l’Ircam, et qui ne cesse de se perfectionner depuis.
Dans le cadre des ateliers du forum Montréal 2021, Thibaut Carpentier présentait différents types de mix pour trois applications possibles : la diffusion binaurale pour le Web, la diffusion pour dômes ambisoniques pour la scène, ou encore des applications interactives pour smartphones où l’utilisateur peut changer de point de vue d’écoute. Vous n’avez encore rien entendu !
Article paru pour la première fois dans Mediakwest #46, p. 96-99