Si, pour l’heure, « SupraLive est un service VIP, réservé notamment aux habitués des loges dans les stades connectés, notre objectif est de l’étendre au plus grand nombre d’utilisateurs, dont les déficients sensoriels », prévient d’emblée Stéphane Dufossé, CEO.
Conçue à l’origine pour les concerts (le service a déjà été exploité sur plus de 125 d’entre eux) afin de permettre aux spectateurs équipés d’un casque et d’une application smartphone d’être au plus près des artistes sur scène grâce à l’interaction multipiste immersive, la solution s’applique désormais à tout événement live.
Ainsi, de la même manière qu’un mélomane peut s’imprégner du jeu de basse en l’écoutant en solo, le spectateur d’un match de foot pourra, en fonction de la disponibilité des sources, éliminer les cris du public adverse, choisir son commentaire, s’il est étranger, ou supporter de l’un des deux camps, voire celui exclusif d’une personnalité pour une expérience premium unique, ou encore entendre les sons du terrain, tels les consignes du banc de touche ou l’intercom des arbitres, pour une meilleure compréhension de l’événement. En résumé, faire son propre mix en temps réel, tout en respectant le travail de l’ingénieur du son.
« Ce que nous proposons, c’est une écoute alternative haute définition en multipiste, sans compression et sans latence. Pour cela, nous utilisons un émetteur C-MA4 qui se connecte à la console de l’ingénieur du son. Ce son “sortie de console” est délivré aux spectateurs via un boîtier contenant l’intelligence du système qui permet de garantir la qualité de service et de corriger la latence en live », détaille Stéphane Dufossé.
Dans le cas d’une retransmission à distance, l’enjeu de latence est différent, mais il en existe un autre : la synchronisation du son multipiste de SupraLive avec le flux vidéo, alors que les deux sources empruntent des canaux distincts. Pour résoudre ce point, « nous utilisons le même principe qu’en live sur le lieu de l’événement. Cela a d’ailleurs fait l’objet d’un dépôt de brevet », se contente de préciser le responsable.
Avec le déploiement prochain de la 5G, la solution va pouvoir s’affranchir du boîtier et Augmented Acoustics proposer le service directement via un téléphone mobile, ce qui va permettre d’étendre son accès au monde entier.
« Aujourd’hui, nous utilisons un boîtier pour qu’il n’y ait pas de décalage entre le son reçu dans le casque de l’utilisateur et le son externe. En live, on ne peut pas se permettre d’attendre que les paquets arrivent. »
Maintenant, poursuit Stéphane Dufossé, « ce qui, pour l’heure, n’est pas possible en wi-fi et 4G sans le boîtier le sera en 5G, grâce au découpage du réseau mobile en tranches (network slicing), qui permettra l’allocation de ressources dédiées pour chaque service, et à la faible latence. »
Extrait de l’article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.62/67. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.