Après plusieurs opérations de captation UHD HDR dans le monde (matchs de base-ball et de basket-ball aux États-Unis, Open de tennis en France…) et une année 2019 où, pour la première fois, les ventes de téléviseurs compatibles HDR ont dépassé celles des téléviseurs SDR.
Et si, pour le sport comme pour d’autres genres télévisés (films, documentaires…), la transition vers le HDR commençait par l’étape finale : la distribution ?
« Grâce à des cartes du type Cobalt 9904 et la solution Technicolor HDR ITM (Intelligent Tone Management), qui permet de convertir des signaux SDR (caméras, graphiques, ralentis…) en signaux HDR, on peut facilement démarrer la distribution de contenus HDR dès aujourd’hui, alors que l’ensemble de la chaîne de production est en SDR », envisage ainsi Guy Ducos, en charge du business development pour l’Europe des solutions « Advanced HDR by Technicolor », codéveloppées par Technicolor, Philips et InterDigital. « On pourra ensuite faire remonter progressivement les conversions SDR > HDR, de la sortie d’un playout SDR aujourd’hui à l’entrée d’un playout HDR demain. »
À cet égard, il existe mieux que des hypothèses. Ainsi, depuis décembre 2019, grâce à des solutions de conversion Technicolor HDR (post-processeur SL-HDR pour Single Layer HDR), la chaîne franco-allemande Arte décline ses contenus SDR en une version expérimentale HDR, distribuée en SL-HDR2 (HDR10 + métadonnées dynamiques) et disponible, pour l’heure, sur Molotov TV et Free.
Ainsi encore, aux États-Unis, Sinclair Broadcast Group convertit en live ses chaînes locales SDR en s’appuyant sur la norme ATSC 3.0 avec un encodage S-HVC et l’option SL-HDR1 (SDR + métadonnées dynamiques).
Des technologies prêtes à l’emploi, mais…
En amont aussi, les éléments techniques et opérationnels de la chaîne de production se mettent en place. Cependant, il s’agit généralement d’un modèle de production non pas unique – dans ce cas HDR, offrant une rétrocompatibilité SDR – mais hybride, faisant notamment appel à des outils de conversion ou nécessitant une mise à niveau des équipements. Et certains vont sans doute devoir continuer à s’adapter. Chez EVS, par exemple, « nous travaillons à un nouveau modèle de multiviewer capable d’afficher nativement les contenus dans un format approprié pour permettre l’utilisation de moniteurs SDR dans une production HDR et se rapprocher le plus possible d’une représentation réelle », annonce Sébastien Verlaine, directeur marketing.
D’un point de vue plus spécifique, « la transition vers l’UHD HDR n’est pas aussi simple que celle de la SD vers la HD », fait-on remarquer chez Sony.
Déjà le constructeur assure avoir été le partenaire de plus d’une centaine d’opérations UHD HDR à travers le monde. Avec sa solution « SR Live for HDR workflow », aujourd’hui mise en œuvre par de nombreux acteurs européens de la production sportive, notamment en Angleterre, en Allemagne et en France, Sony revendique la possibilité pour ces derniers de générer, dans un environnement de production unique, des contenus en HDR et SDR.
« Notre solution s’appuie sur un format de production intermédiaire en HDR qui se doit d’être “ scene referred ”, d’où le choix possible entre le SLog-3 et le HLG », décrypte une source interne. « C’est en sortie que le signal SDR (ITU.709, lui-même “ scene referred ”) est dérivé, sans compromis ni perte de qualité. » Et sans que les pratiques opérationnelles, en l’occurrence celles des ingénieurs vidéo, qui travaillent ici en SDR, en soient bouleversées.
« C’est le superviseur HDR qui va assurer la cohérence et le contrôle des paramètres inhérents aux images HDR », poursuit la même source. Ainsi les risques d’erreur d’interfaçage entre deux équipements – par exemple, un signal de sortie caméra BT.2020 pris pour un signal traditionnel BT.709 ou un manque d’alignement dans les niveaux de blancs (« diffuse white ») entre caméras HDR – s’en trouvent-ils diminués.
Chez EVS aussi, « c’est un aspect très important que nous prenons en compte lors de la fabrication de nos produits », souligne Peter Schut, SVP Media Infrastructure. Par exemple, « lorsqu’un opérateur a besoin de restaurer un clip vidéo d’un match précédent qui a été enregistré en SDR, l’interface affiche les informations et le backend technique se charge de la conversion. La complexité des conversions de couleurs nécessaires à cette opération lui est cachée au maximum pour qu’il puisse se concentrer sur le storytelling. »
Côté captation, les caméras Sony des séries HDC notamment (3500, 4300, 4800, 5500…), comme celles d’autres constructeurs (Grass Valley LDX86 Universe et, en 2021, LDX100, Ikegami UHK-430, HDK-99…), offrent la possibilité de produire nativement en UHD HDR. En fait, le ratio caméras natives HDR/SDR dépend du type d’événement (la Formule 1, par exemple, a des contraintes différentes de la gymnastique en salle), du producteur, qui ne peut s’affranchir par ailleurs de l’impératif comptable, et aussi de l’utilisation ou non de moyens HF, en attente de certaines évolutions (lire encadré), ou encore de caméras high speed, lesquelles n’ont pas encore franchi le pas du HDR. Quoi qu’il en soit, « ce ratio évolue et, depuis cette année, la majorité des caméras fixes sont déjà UHD HDR », constate Guy Ducos.
De leur côté, les fabricants d’optiques ont développé et mis à jour leurs solutions pour améliorer les rendus de contrastes et de couleurs inhérents au HDR. « Avec les capteurs CMOS de dernière génération, les nombreuses options disponibles sur le marché suivent l’augmentation de la résolution, sans permettre nécessairement une meilleure immersion », nuance toutefois Christian Gobbel, CTO chez Host Broadcast Services (HBS), l’opérateur hôte de la Coupe du monde de la Fifa, qui, en 2018, a été l’un des premiers laboratoires en la matière.
De même, pour la production des ralentis, si les serveurs EVS des générations précédentes accusaient certaines limitations, se traduisant principalement par un nombre de canaux insuffisant eu égard à la quantité de bande passante nécessaire pour garantir la meilleure qualité, ceux de nouvelle génération (XT-VIA) prennent aussi bien en charge l’UHD que le HDR dans des codecs 10 bits sans limitation. Parallèlement, « les outils d’import/export de fichiers XFile3 permettent des conversions efficaces entre les différents formats nécessaires, ainsi que l’archivage des contenus », prolonge Sébastien Georges, EVS VP markets.
C’est aussi le cas du serveur Sony PWS-4500, qui permet l’enregistrement en XAVC 10 bits nécessaires pour le support de l’UHD HDR.
« Globalement, nous constatons chez l’ensemble des constructeurs broadcast l’émergence de systèmes de captation, d’enregistrement et de conversion permettant la mise en œuvre d’un workflow UHD-HDR », résume Franck Reynaud, responsable du host broadcasting et de la production au sein d’Eurovision Services. « Cependant, ces équipements res-tent rares et, bien évidemment, très coûteux. Ce qui limite la volonté d’investissement des prestataires de services et freine mécaniquement le développement de ce format. »
Un format en voie de démocratisation
Malgré tout, pour certains d’entre eux, la transition vers le HDR est déjà bien engagée. Ainsi, chez Euromedia, « tout ce que nous faisons aujourd’hui pour Canal +, par exemple, est en UHD natif », précise Gaël Tanguy, CTO.
« Le mélangeur, les caméras (Sony HDC 3500, HDC 4300, HDC 4800) travaillent en HDR. Avec nos cars jumeaux de nouvelle génération (Nova 103 et Nova 104), nous disposons ainsi de vingt-quatre CCU UHD et nous pouvons gérer jusqu’à quarante caméras UHD HDR. Certaines autres sources, tels les graphiques, sont intégrées au workflow HDR grâce à des convertisseurs (Sony HDRC-4000) capables d’opérer des transferts d’espaces colorimétriques HDR vers SDR et SDR vers HDR. »
De la même manière, de l’autre côté de la Manche, Telegenic, filiale d’Euro Media Group, produit toutes les semaines du foot anglais en UHD HDR Dolby Atmos pour le compte de BT Sport.
« L’UHD HDR est clairement en train de se démocratiser, du moins pour le sport “premium” », reprend le responsable technique. « D’ailleurs, dans son cahier des charges, la Ligue de football professionnel (LFP) demande du HDR. De même, à l’instar de l’UEFA Super Cup, en septembre dernier à Budapest, pour laquelle nous avons été prestataire, les gros événements sportifs du printemps et de l’été prochains seront en HDR. »
Ce sera notamment le cas de l’Euro 2020 de foot, reporté à 2021 du fait de la pandémie. Sur les trente-six caméras affectées à la couverture multilatérale de chaque match, dix caméras standards, ainsi que trois caméras spéciales (« beauty », hélicoptère, caméra dans le tunnel d’accès au terrain), travailleront dans un format UHD HDR natif.
« Techniquement, toutes en sont capables, mais on arrive rapidement à la limite de ce que les entrées du mélangeur peuvent gérer et de l’adaptation des ressources en matière de ralentis », éclaire Stefan Wistuba, directeur de production chez HBS. « Le principal impact visuel se lisant sur les prises de vue plus larges, l’accent est mis d’abord sur les caméras utilisées en direct, puis sur les caméras offrant un angle plus large. »
Par ailleurs, chaque site sera équipé d’une caméra spéciale UHD HDR pour les besoins unilatéraux des détenteurs de droits. Déjà utilisée dans le base-ball et le football américain, cette dernière permettra de supporter l’analyse du match grâce à une fonctionnalité de « cut out » dont l’intérêt est de créer des caméras « virtuelles » en HD à partir d’une captation UHD.
« Nous avons été les premiers à offrir dans nos solutions de caméras studio cette option », fait-on valoir chez Sony. « Celle-ci existe sur nos caméras 4K, telle que la HDC-4300, mais également sur la caméra 8K UHC-8300, permettant dans ce cas un “ cut out ” 4K à partir d’une image 8K. Par ailleurs, typiquement pour le sport, notre caméra de ralenti HDC-4800, qui peut tourner en UHD/HDR jusqu’à quatre cents images par seconde, offre aussi cette fonctionnalité de “ cut out ”. Il en est de même pour notre serveur de ralenti PWS-4500 à partir d’images UHD. »
Pour l’occasion également, deux opérateurs seront présents sur chaque site pour superviser l’ensemble des signaux HD/UHD ainsi qu’une équipe spécialisée et un superviseur HDR à l’IBC, installé au parc des Expositions d’Amsterdam, pour le contrôle qualité de l’ensemble des matchs.
« L’UEFA a fait le choix final du HLG parce qu’il permet de sécuriser le SDR – qui adresse encore aujourd’hui la majorité des audiences, surtout pour ce genre d’événement – et, en même temps, parce qu’il doit y avoir une homogénéité de production entre les différents sites », analyse l’une des parties prenantes.
En l’occurrence, comme pour la Coupe du monde ou les Jeux Olympiques, la qualité du HDR doit être la même sur l’ensemble des douze stades de la compétition. « Conserver une cohérence dynamique et colorimétrique, contrôlée de manière centralisée, devient critique dans une configuration de production multi-sites par opposition à une situation de match unique », admet André Nel, responsable de l’ingénierie broadcast au sein de la confédération européenne.
Les JO passent à la nouvelle norme
Plus sûrement encore que le prochain Euro de foot, les Jeux Olympiques de Tokyo, du 23 juillet au 8 août prochains, marqueront la vraie bascule. « Après avoir suivi de près les progrès de la technologie depuis 2015 et réalisé des tests lors des derniers Jeux Olympiques d’été et d’hiver (Rio 2016 et PyeongChang 2018), nous avons décidé d’adopter l’UHD HDR comme nouveau standard de production », annonce OBS (Olympic Broadcasting Services).
Pour cette transition technologique, l’opérateur hôte sait pouvoir « désormais compter sur des équipements UHD de la plus haute qualité, qui vont nous permettre de raconter les Jeux d’une manière qui n’était pas imaginable auparavant, et sur le soutien des diffuseurs.»
Pour la première fois, la plupart des trois cent trente-neuf épreuves olympiques, organisées sur quarante-deux sites de compétition, seront ainsi produites nativement en UHD HDR et audio immersif. « Nous nous appuierons également sur plusieurs caméras spéciales qui ne peuvent fonctionner qu’en HD 1080p SDR. Ces sources devront donc être converties en UHD HDR afin d’être intégrées, de manière transparente, dans le flux principal », indique un acteur du dossier. Ainsi, la production des matchs de tennis, qui se disputeront sur sept courts extérieurs, restera en HD.
Pour le reste, suivant le plan de production UHD HDR tel qu’il était connu en décembre dernier, les épreuves en direct ainsi que les cérémonies d’ouverture et de clôture devraient compter pour quelque 3 500 heures et les images des caméras « beauty », déployées dans la ville hôte, pour quelque 4 750 heures, sur un volume total prévisionnel de quelque 9 500 heures de production destinées aux différentes plates-formes (chaînes linéaires, services OTT, réseaux sociaux).
Côté matériel, sur les quatre-vingt-cinq caméras filmant l’athlétisme, soixante-cinq seront en UHD-HDR natif, soit 75 % du dispositif. Les autres (25 %) seront soit HD-1080p-SDR natif, soit HD-1080p-HDR.
Pour les équipes d’ingénierie, l’un des principaux défis a été de définir la meilleure résolution requise pour les systèmes qui ne sont pas disponibles en UHD natif en raison de la limitation du marché, afin qu’aucune qualité ne soit sacrifiée aussi bien dans le passage à l’UHD que dans la livraison du signal SDR. Avec un espace colorimétrique beaucoup plus large en UHD (BT.2020) qu’en HD (BT.709), OBS a dû également s’employer à créer un modèle de flux de production HDR/SDR unique garantissant l’intégrité du rendu en HD et UHD et permettant à la flotte de cars-régies, dont les capacités IP seront accrues pour l’occasion, de générer une sortie SDR HD 1080i via une conversion de haute qualité à partir du signal UHD/HDR principal.
De plus, OBS a travaillé en étroite collaboration avec certains détenteurs de droits et testé différents équipements pour mettre en œuvre des solutions et des workflows optimisés. C’est ainsi que l’opérateur hôte a conçu son propre ensemble de Look-Up Tables (courbes appliquées au signal vidéo) pour traiter la couleur entre UHD/HDR et HD/SDR.
À cet égard, l’utilisation de Lut et, plus encore, celle de convertisseurs dynamiques basés sur l’intelligence artificielle (machine learning), laquelle permet une optimisation des coûts et une adaptation automatique aux variations de luminosité, représentent des innovations majeures pour simplifier ce type de production.
La Major League Baseball, un cas d’école
Avant le passage à la nouvelle norme pour les Jeux Olympiques, plusieurs opérations de captation UHD HDR dans le monde auront permis de faire évoluer la chaîne de production. Telles celles menées en France, lors du tournoi de Roland-Garros, et aux États-Unis, lors de plusieurs matchs des Los Angeles Lakers (basket-ball) et de la Major League Baseball.
« La mise en place d’un workflow de production optimisé autour du HDR est non seulement possible, mais souhaitable car, à partir de là, en utilisant des convertisseurs dynamiques de qualité, type cartes Cobalt et Technicolor HDR (SL-HDR), un flux SDR d’excellente qualité pourra facilement en être dérivé en temps réel (seulement deux trames de retard) et de façon optimale », plaide Guy Ducos.
Et le représentant de Technicolor d’enfoncer le clou : « Cette approche peut sembler contre-nature à ceux qui ont une expérience limitée en production HDR et une pression significative sur la qualité du SDR qu’ils doivent livrer en priorité. Pourtant, c’est la seule gagnante. »
Ainsi a-t-elle été mise en œuvre en 2017 aux États-Unis, lors de trois matchs de la Major League Baseball (MLB). Chaque opération combinait les ressources parallèles de deux cars-régies, l’un pour le SDR, l’autre pour le HDR. En faisant le choix – principalement motivé par la disponibilité des équipements alors sur le marché – du HLG comme EOTF (courbe de transfert), les équipes techniques ont pu d’une part affiner les réglages sur les caméras HDR, sans lesquels il était impossible d’aligner les signaux et de produire un HDR homogène, dépassant en l’occurrence les limites préconisées par la BBC avec des niveaux de dynamique plus élevés (480 nits, par exemple, pour le sable dans l’aire de lancer), et d’autre part optimiser les paramètres de conversion pour un SDR de meilleure qualité.
« C’est l’avantage de se concentrer sur une production en HDR », commente Guy Ducos. « En utilisant des moniteurs de référence HDR, l’ingénieur vidéo voit beaucoup plus de détails dans les noirs, les “ mid-tones ”, les brillants que sur des écrans SDR et peut donc procéder à des réglages de caméras plus fins, selon que le match, par exemple, a lieu en diurne ou en nocturne. Du coup, avec une solution de conversion dynamique HDR > SDR, qui permet d’analyser les images en entrée pour comprendre où se situent les détails, la version dérivée en SDR est différente – et souvent meilleure – que celle qui aurait été produite nativement dans ce format. »
Mais que faire alors des signaux SDR disponibles en sortie de caméra ? « S’ils ne sont pas utilisés pour le réglage des caméras, ces signaux peuvent l’être pour le monitoring car, ici, la qualité d’image importe moins », propose le représentant de Technicolor.
Dans le cas présent, le mur vidéo était composé d’écrans SDR reliés à des convertisseurs HDR > SDR pour chacune des huit caméras HDR. Les signaux HLG en sortie de celles-ci étaient convertis en SDR en utilisant des cartes Cobalt Digital et la technologie Technicolor HDR (SL-HDR). « Une conversion pas forcément indispensable si l’on utilise la “ backwards compatibility ” du HLG avec le SDR », précise encore Guy Ducos. « Mais, en l’occurrence, la MLB souhaitait produire un HLG plus dynamique et avoir un mur vidéo de bonne qualité. »
En sortie de production, le signal HDR HLG était acheminé par un lien de contribution vers la régie centrale. Dans celle-ci, l’approche était la même, avec l’insertion de publicités SDR converties avec des cartes Cobalt et la technologie Technicolor HDR ITM afin d’assurer la continuité de l’antenne en HLG.
En distribution, enfin, le signal de production HLG était converti en SL-HDR1 afin de servir les clients SDR avec la vidéo de base au format SL-HDR1 (SDR + métadonnées dynamiques) et de permettre à ceux équipés d’un écran supportant le HDR de recevoir un signal adapté à ses capacités d’affichage (300 nits, 500 nits, 1 000 nits…).
Un air de 3D
« Nos expériences avec Canal + au cours de la saison 2019/2020 nous ont permis de capitaliser sur le traitement et la supervision du HDR », souligne Gaël Tanguy. Aujourd’hui, l’intérêt de celui-ci par rapport au SDR est clairement démontré. « Les plans larges, qui affichent un niveau de détail inédit, et une nouvelle dynamique des couleurs donnent au spectateur le sentiment d’être “ à l’intérieur ” du stade », résume Stefan Wistuba.
Désormais, embraye Sébastien Georges, « vous pouvez voir la sueur et des variations de lumière très fines sur le visage des acteurs de la compétition, ce qui était visuellement inaccessible en SDR. Cela accentue l’émotion et reflète mieux les sentiments qui les animent. »
Sans doute le HDR, dont l’impact est principalement visuel, offre-t-il une représentation plus fidèle de la réalité. Pour autant, il n’est pas sûr qu’il soit l’amorce d’un nouveau storytelling du sport en direct – auquel contribue par ailleurs l’usage de solutions audio de toute dernière génération, comme le Mpeg-H – eu égard aux impératifs de production actuels. À ce jour, en effet, « la production UHD HDR se doit d’être compatible avec la production et la diffusion en SDR. Du coup, les positions de caméras restent les mêmes, ce qui permet, à partir d’un plan de production unique, de produire et diffuser dans les deux formats », fait-on remarquer chez Sony.
Dans les premiers temps de l’UHD, l’opinion commune penchait pourtant pour des emplacements beaucoup plus proches de l’aire de compétition. « De nouvelles positions ont certes été testées mais, avec le recul, on se rend compte qu’il s’agit plus d’une évolution technique que d’une révolution éditoriale, comme ce fut le cas avec la 3D. Par conséquent, le positionnement des caméras demeure très similaire à celui observé pour les workflows HD », conclut Stefan Wistuba.
En théorie, les pics de luminosité peuvent aller jusqu’à 10 000 nits en PQ. Cependant, « la “ peak luminance ” sur les opérations que nous produisons en HDR s’établit à 1 000 nits », signale Gaël Tanguy. En pratique, « elle sera limitée par les capacités d’affichage du moniteur professionnel utilisé en production (par exemple, 1 000 nits pour un Sony BVM-X300 ou 2 000 nits pour un Canon) et par la calibration préalable des différentes caméras impliquées dans le tournage. Cette calibration est nécessaire mais souvent difficile à réaliser, car celle-ci fait généralement appel à plusieurs types, voire marques d’appareils », explique de son côté Guy Ducos.
À quoi s’ajoutent, pour le sport typiquement, d’autres paramètres tels que l’heure de la journée, les conditions d’éclairage et le contenu de l’image. En conséquence, « c’est plus un choix de l’ingénieur vidéo qu’une valeur “ naturelle ” absolue », reprend Guy Ducos. « Selon les producteurs et leurs souhaits de produire, par exemple, un HDR “ SDR backwards compatible ” ou un HDR très dynamique, cette valeur peut aller de 203 nits (suivant la recommandation de la BBC) à 480 nits (suivant le choix de la Major League Baseball) ou toute autre valeur. »
Cela va dépendre aussi de la capacité des différents sols à réfléchir la lumière. Ainsi, « un parquet de basket reflètera plus fortement celle-ci qu’une piste d’athlétisme ou le gazon d’un terrain de football et les spéculaires monteront beaucoup plus haut. »
Par ailleurs, certains intérêts commerciaux, propres au milieu sportif, font que les couleurs des logos des sponsors et celles des maillots ou shorts (les blancs étant plus lumineux que les autres) qui leur servent de support doivent être restituées à l’identique après avoir été enregistrées, par exemple, par une caméra SDR, produites en HDR et reconverties en SDR pour transmission.
Dans le car-régie, via un poste dédié, un superviseur (master shader) veille ainsi en permanence à la cohérence entre SDR et HDR et ajuste le mapping des couleurs en agissant au besoin sur les paramètres de conversion appliqués aux signaux.
Dans le cas d’une captation HDR, avec une sortie parallèle en SDR, la méthode souvent utilisée consiste à réaliser le « camera shading » en prenant en compte le signal SDR obtenu après conversion de celui produit en HDR. Cette méthode « manuelle », sur la base de Lut (Look Up Tables), est toutefois facilitée grâce à l’utilisation de convertisseurs dynamiques. L’algorithme, tel celui développé à l’origine par Axon, racheté depuis par EVS, pour sa plate-forme Neuron (lire encadré), est capable d’adapter et d’optimiser, typiquement en cas de changement des conditions météorologiques, la conversion de HDR vers SDR automatiquement, sans intervention humaine, et d’éliminer le cas échéant les altérations occasionnées par d’autres outils de conversion lors des aller-retour entre SDR et HDR.
En outre, pour une production de meilleure qualité, « la bonne nouvelle est que de plus en plus de moniteurs HDR sont disponibles : soit des moniteurs à faible coût (17 pouces) pour les besoins de suivi, soit des moniteurs de référence (31 pouces) pour le réglage et la calibration des images », constate Guy Ducos.
La prime au HLG
Dans le contexte de distribution actuel, « il faut être prudent sur le HDR pour conserver le SDR », prévient Gaël Tanguy. À l’instar d’OBS pour les Jeux Olympiques et de l’UEFA pour l’Euro de foot, « c’est l’une des raisons pour lesquelles, aujourd’hui, de nombreux clients nous demandent de produire en HLG. Comparativement, le SLog-3 est beaucoup plus vendeur en termes d’effet, mais il est aussi beaucoup moins sécurisant. Il faut être beaucoup plus vigilant au SDR lorsque l’on travaille en SLog-3 plutôt qu’en HLG. »
À chaque opération, le respect du « round trip » est un défi jeté aux équipes techniques : faire que le signal SDR issu d’une caméra ayant des sorties parallèles SDR et HDR, après être passé par un workflow global HDR, soit restitué à l’identique en sortie du car-régie. Par un paradoxe seulement apparent, « le plus important actuellement dans la production du HDR, c’est de veiller à l’intégrité du SDR », résume un professionnel.
Pour ce faire, le HLG est le format HDR le plus commun, d’autant qu’avec cette technologie les ingénieurs vidéo ne se défont pas complètement des modes de calibration habituels. « Cela est principalement lié à la compatibilité des équipements utilisés dans la chaîne de production et à sa bonne adaptation au direct par opposition à des workflows davantage tournés vers la postproduction », argumente de son côté Peter Schut.
Sa prédominance tient en fait à une courbe de transfert des bas niveaux de lumière qui le rapproche du SDR, comme le rappelle Franck Reynaud. « Au regard de l’EOTF, le SLog-3 est bien supérieur au HLG. En live, c’est un format superbe mais d’exploitation délicate, car sa courbe de réponse est très éloignée de notre perception des contrastes. En revanche, l’intérêt du HLG réside dans le fait que tout le pied de courbe – la densité des bas niveaux de lumière – suit de très près celui du SDR. En outre, le HLG est un candidat naturel pour la diffusion, d’où une simplicité accrue de la production à la distribution. »
Maintenant, si le HLG a été fortement promu au départ par la BBC en mettant en avant la possibilité de produire un signal HDR HLG compatible avec le plus grand nombre de marques de caméras et de récepteurs, même d’anciens modèles, « depuis le “ Royal Wedding ”, il est clair pour tout le monde, y compris la BBC, qu’il est nécessaire de différencier le signal HDR du signal SDR pour permettre la production d’un HDR à plus forte valeur ajoutée et garantir un SDR de bonne qualité », conclut Guy Ducos.
NEURON/SYNAPSE, LE TICKET GAGNANT D’EVS
Si, pour une meilleure qualité, l’objectif est de disposer de chaque source dans un format HDR natif, des éléments d’archives et d’autres sources SDR préenregistrées (graphiques…) peuvent être ajoutés à la chaîne de production via des up-converters SDR vers HDR. Chez EVS, après l’acquisition du néerlandais Axon, Neuron et Synapse sont aujourd’hui les outils qui permettent cette conversion.
Neuron est un châssis rackable 1U qui peut contenir deux cartes. Chaque carte peut gérer jusqu’à seize signaux FHD (1080p) ou quatre signaux UHD, tous convertissables de manière ascendante (SDR > HDR). Cette plate-forme 1RU est capable de gérer jusqu’à trente-deux signaux en entrées/sorties SDI et IP. « Nous commencerons à livrer en décembre une carte de trente-deux canaux (soixante-quatre canaux dans 1RU) intégrant des entrées/sorties SDI », annonce Sébastien Verlaine, directeur marketing.
Cette carte, munie de connecteurs 12G, peut traiter huit signaux UHD (donc seize dans 1RU) ou quarante signaux FHD dans 1RU, en raison de la limitation des ports SDI i/o (vingt par carte).
Quant à Synapse, le constructeur assure qu’il est actuellement « le système de traitement audio et vidéo le plus puissant et le plus complet sur le marché ». Son architecture modulaire est conçue pour prendre en charge des applications de diffusion critiques. Les modules du même nom permettent ainsi de traiter, distribuer, convertir ou analyser tous types de signaux vidéo et audio non compressés (SD, HD, UHD…) grâce à de nombreuses fonctionnalités, telles que la synchronisation d’images, la conversion vidéo ascendante et descendante, l’intégration audio, le traitement Dolby, l’insertion de logos et, dans ce cas, le multiviewing.
#SAVETHEDATE : Génération Numérique vous propose le 30 juin une journée SATIS TV spécial Sport…
Extrait de l’article paru pour la première fois dans Mediakwest #40, p. 72-81. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors série « Guide du tournage) pour accéder, dès leur sortie, à nos articles dans leur intégralité.
[envira-gallery id= »120696″]