Trois questions à Mike Cronk, VP chez Core Technology à Grass Valley et Chairman du Board d’AIMS

Selon vous, quelles sont les principales avancées en termes d’usage du Live IP ? *
MikeCronk.jpg

Si l’ensemble de la chaîne de production live passe en IP, cela offre la possibilité de faire plus facilement de la remote production, de partager plus de contenus entre différentes régies et de mutualiser des ressources graphiques ou du processing pour des directs de grande envergure. En outre, avec l’IP Live, il ne sera pas nécessaire de changer tous ses équipements de production à chaque évolution de la résolution d’écran des téléviseurs. Dans la plupart des cas d’évolutions logicielles, une amélioration de la connectivité et de nouveaux routeurs seront suffisants pour permettre la migration vers les résolutions futures, là où aujourd’hui il faudrait changer tous ses équipements de production et son câblage.

 

Où en est-on du processus de standardisation de la production TV en IP ?

L’an dernier, face à l’émergence de solutions propriétaires chez Sony ou Evertz, un grand nombre de sociétés du secteur ont réagi et décidé d’accélérer le processus de standardisation SMPTE de l’IP TV, en proposant de réunir au sein d’un seul et même standard l’ensemble du travail de spécifications sur l’IP Live réalisées par différents organismes comme l’AES, le VSF, l’AMWA, l’EBU et bien sûr la SMPTE. Ce standard, SMPTE 2110, devrait être ratifié, mais d’ores et déjà les tests d’interopérabilité actuels montrent que nous sommes sur la bonne voie.

Nous avons d’abord standardisé la base de l’IP TV au travers de la SMPTE 2022-6 qui spécifie la contribution et la distribution des live en IP, y compris au sein d’un WAN. La SMPTE 2022-6 définit la manière dont est encapsulée la bande de base au sein des paquets de données IP. C’est une première étape indispensable à l’adoption de toutes les futures normes IP dédiées à la vidéo.

Ensuite, nous avons décidé d’inclure, dans nos futures spécifications, l’AES 67 visant à définir l’encapsulation audio, ainsi que les deux recommandations promues par le VSF (VST-TR03 et VST-TR04) qui organisent la manière dont l’audio est streamé au sein d’un raster IP. Avec les VSF-TR03 et VSF-TR04, les données audio deviennent adressables séparément des paquets vidéo. La norme VSF TR-03 spécifie notamment la séparation suivant des adresses IP distinctes des essences audio, vidéo et des métadonnées. Ce procédé permet de réduire considérablement le volume de trafic IP qui doit être acheminé vers un processeur audio et de n’utiliser que les pixels vidéo actifs.

J’insiste aussi sur l’importance du protocole PTP (Precision Time Protocol) déjà utilisé dans l’industrie sous la norme IEEE1588 et que nous intégrerons dans la future SMPTE 2110. Le PTP permet d’obtenir un alignement temporel des essences audio et vidéo alors que celles-ci sont transportées dans des paquets IP séparés. C’est un point essentiel pour permettre le remplacement du Genlock, du « black burst » ou du time code utilisés jusqu’ici, tout en sachant que l’ensemble des méthodes de synchronisation des signaux (anciennes et nouvelles) pourront coexister. Le PTP, en tant que référence temporelle codée sur 64 bits, a une précision de l’ordre de la nanoseconde et offre une perspective de longévité de 136 ans !

 

Quelles sont les prochaines étapes de standardisation ?

Jusqu’ici, nous avons surtout défini la translation de l’industrie audiovisuelle du SDI à l’IP. Mais, l’IP, on l’a déjà vu dans les autres domaines de l’audiovisuel, permet bien plus que cela. Il permettra de concevoir des couches fonctionnelles bien plus sophistiquées qu’aujourd’hui, sur la base du développement logiciel.

Contrairement à l’époque du SDI où il fallait installer et configurer les nouveaux équipements manuellement, désormais les adresses IP de tout nouvel équipement au sein du réseau vont pouvoir être reconnues automatiquement, ce qui va aussi faciliter le plug-and-play des installations de production. Il est également prévu que la SMPTE, grâce au travail de l’AMWA (déjà à l’origine de FIMS dans l’univers de la postproduction), définisse la manière dont les couches de virtualisation des process en IP Live seront organisées.

 

*Interview extraite de notre « Cahier des tendances » réalisé par notre équipe de rédacteurs durant l’édition 2016 d’IBC et paru pour la première fois dans Mediakwest #19, p.44-76. Abonnez-vous à Mediakwest (5 nos/an + 1 Hors série « Guide du tournage) pour accéder, dès leur sortie, à nos articles dans leur intégralité.