You are currently viewing Andrew Cotton, ombres et lumières
Le couronnement de Charles III sous le signe de la technologie. © Adobe Stock / Ferenc

Andrew Cotton, ombres et lumières

 

Le couronnement du roi Charles a été le plus important événement UHD HDR en direct jamais réalisé par la BBC…

Nous avions sept cars de production extérieure (OB) provenant de quatre fournisseurs différents. Un de ces camions était dédié à l’habillage et à la réalisation du programme final, à la fois pour le signal national et le signal international. Cinq autres cars étaient utilisés pour couvrir les déplacements entre le palais de Buckingham et l’abbaye de Westminster, avec un camion OB à la caserne de Wellington. Un dernier camion était spécifiquement dédié à la couverture de l’abbaye de Westminster elle-même. Au total, nous avons utilisé plus d’une centaine de caméras UHD HDR.

 

Sept camions et plus de cent caméras pour un seul programme… ! Comment cela se compare-t-il au Super Bowl ? (Notez que la comparaison s’arrête ici !)

Le Super Bowl est diffusé en Ultra HD (1 080p HDR), tandis que notre événement était en UHD (2 160p). La résolution UHD introduit une complexité significative en raison des exigences plus élevées en matière de bande passante. Chacun de nos cars distants était chargé de produire un programme complet en UHD HDR en utilisant la technologie HLG. Nous avions un réalisateur dans chacun des six camions distants, et les six flux étaient ensuite transmis au camion de réalisation. Le programme final a été créé en combinant les programmes finis des différents camions.

 

Quel format utilisaient les caméras ?

Andrew Cotton, le « Principal Technologist » au sein de la BBC R&D. © DR

Toutes les caméras étaient configurées pour filmer en UHD (2 160 x 3 840) à 50 images par seconde en HLG (Hybrid Log Gamma). À l’intérieur des camions, nous avons utilisé la matrice de conversion BBC (LUT ou Look-Up Table) pour prendre le signal HLG et le convertir en HD et en Standard Dynamic Range (SDR) à une luminosité de 100 cd/m² (ou nits). Cette même LUT a été appliquée de manière cohérente à toutes les caméras (aux « Shading positions »). Dans le car de réalisation, nous avons également utilisé la même LUT pour transformer le signal HLG en sortie de programme SDR. Cela garantissait que, ce que l’ingénieur vision voyait sur son moniteur de référence, correspondait exactement à ce qui était diffusé auprès d’un public plus large en HD SDR.

 

Donc, en pratique, le directeur de la photographie avait deux moniteurs côte à côte (SDR et HDR) ?

Non, les décisions créatives les plus importantes étaient prises sur les moniteurs SDR. Nos LUT sont appelées « gamma-adjusted » ou « gamma-compensated » non linéaires (comme décrit dans la norme BT.2408 (disponible en accès libre ici . Elles garantissent que l’image SDR affichée à 100 cd/m² sur un moniteur SDR présente le même niveau de détail des ombres et de tons moyens que l’image HDR. Cette différence est essentielle par rapport aux LUT disponibles auprès d’autres fournisseurs. Une nouvelle mise à jour concernant l’ajustement gamma est prévue dans la prochaine BT.2408-7. Le document de l’UIT (ou ITU en anglais) explique comment passer du SDR au HDR. Cependant, il ne détaille pas autant la manière de passer du HDR au SDR. Si vous utilisez une méthode pour passer du SDR au HDR, vous devez également utiliser la même méthode pour passer du HDR au SDR.

 

En 2022, le groupe de travail de l’UER a organisé, dans les locaux de la chaîne allemande SWR à Baden-Baden, un atelier dédié au HDR. Objectif principal : explorer les workflows et les équipements de production liés au HDR présentés par Sky, BT Sport, CBC ou la BBC. © DR

 

La BBC LUT est une méthode d’ajustement gamma (donc non linéaire). Mais il en existe d’autres…

La méthode Movielab prend la luminance de l’écran à 100 cm/m2, puis multiplie la luminosité de chaque pixel par un facteur de deux pour obtenir un signal HDR. C’est peut-être la bonne approche pour certaines applications, mais à la BBC nous avons toujours pensé que nous devions être meilleurs que ce que proposent les téléviseurs grand public, en particulier pour les conversions utilisées dans la production.

 

Quelles sont les difficultés liées à la conversion HDR/SDR ? Pouvez-vous donner des exemples concrets ?

Lorsque l’on passe du HDR au SDR, il est impossible de prendre en compte toutes les nuances du HDR. Par exemple, si vous avez une image HDR avec des projecteurs dans le cadre, votre vision s’adaptera, et vous verrez moins de détails dans les ombres. Une LUT statique ne peut pas reproduire cette adaptation. Cependant, la LUT fournit une moyenne de travail. Une autre difficulté réside dans le fait que les sept camions étaient équipés de convertisseurs de format complètement différents, provenant de divers fabricants. L’une des étapes essentielles avant le couronnement a donc été de rassembler tous les équipements nécessaires auprès des fournisseurs et de rédiger une spécification de configuration.

 

L’utilisation de convertisseurs HDR vers SDR de divers fournisseurs aurait pu entraîner un rendu différent pour chaque car ! Quel a été le résultat ?

La bonne nouvelle, c’est qu’avec tous ces équipements de divers fournisseurs, nous avons obtenu des résultats incroyablement cohérents pour tous les camions. Sky utilise quotidiennement ce workflow avec notre LUT. La totalité de la Premier League anglaise est produite de cette manière, tout comme la boxe ou le cricket. Le nouveau studio de Sky Sports News fonctionne également de la même manière, et cette méthode est fiable, cohérente et robuste. Les aspects liés au HDR-SDR ont été extrêmement bien gérés.

 

Comment avez-vous atteint un consensus sur le HDR au cours du processus de normalisation de l’UIT ?

Nous avons convenu d’utiliser un gamma système de 1,2 à 1 000 cd/m² à l’écran. C’est le même gamma que celui de la norme BT.709 pour le SDR, mais il est affiché à 200 cd/m² au lieu de 100 cd/m². Cela donne une image HDR avec un aspect plus proche de la réalité. Nous sommes tous d’accord sur ce point.

Vous pouvez ensuite ajuster cette image « naturelle » pour créer l’aspect artistique souhaité. De nos jours, certaines caméras proposent des réglages artistiques qui vous permettent de modifier l’OOTF (Optical to Optical Transfer Function) et de régler la saturation des couleurs. Ces paramètres sont de plus en plus présents dans les caméras. Cependant, lors de l’appel d’offres pour le couronnement, nous avons insisté sur le fait que toutes les caméras couvrant l’événement devaient disposer d’un ensemble complet de contrôles artistiques. Cela nous a permis de créer l’esthétique que nous considérons comme appropriée au Royaume-Uni pour ce type d’événement.

 

Waouh ! Voulez-vous dire que vous avez dû régler les paramètres de cent caméras UHD HDR provenant de plusieurs fournisseurs ?

La plupart des caméras étaient en fait de la marque Sony. C’est assez inhabituel pour un événement de cette envergure d’avoir une majorité de caméras d’une même marque. Sony a introduit ce type de contrôle artistique lors de l’IBC en 2019, mais il n’était pas disponible sur l’ensemble de leur gamme au départ. Ainsi, au début, nous avons précisé qu’il y avait certaines caméras Sony que nous pouvions utiliser, tandis que d’autres n’étaient pas compatibles. Ensuite, Sony a fait un excellent travail en étendant ces contrôles artistiques à l’ensemble des caméras que nous allions utiliser pour l’événement.

Cela signifiait que nous pouvions créer une esthétique artistique à la fois en HDR et en SDR. Nous avons spécifié certains paramètres de base pour ces réglages artistiques, de manière à obtenir une image qui ressemble à la norme BT.709 en termes de saturation des couleurs et de détails dans les ombres, sur un moniteur SDR alimenté par notre LUT. Les ingénieurs de la vision ont ensuite légèrement ajusté ces paramètres en fonction de leurs propres besoins. Par exemple, pour l’abbaye de Westminster, ils ont préféré un gamma légèrement plus bas par crainte que certains tissus de couleur foncée ne ressortent pas bien. Ils avaient une référence de départ et pouvaient apporter des ajustements tout au long de la journée pour compenser les variations des conditions d’éclairage à l’intérieur et à l’extérieur.

 

Chapeau bas, car le travail que vous avez accompli sur la production du couronnement était en quelque sorte précurseur…

Nous avons spécifié les contrôles artistiques, et cela a très bien fonctionné. Nous étions donc très satisfaits du rendu en HDR et en SDR. L’idée de définir une esthétique de base remonte à mai 2022. Elle découle des travaux réalisés lors de l’atelier HDR de l’UER qui s’est tenu à Baden-Baden, dans les locaux de la télévision allemande SWR. Cet atelier était axé sur le workflow et comportait deux volets : la production en direct et la production online ensuite postproduite. J’ai participé au volet sur la production en direct.

On m’a dit que dans de grandes productions, il est fréquent d’utiliser des caméras de différents fabricants. Les caméras performantes utilisées en mode HLG natif produisent des résultats remarquablement similaires. Cependant, en Europe du moins, il est rare que les utilisateurs veuillent utiliser les caméras dans ce mode. Ils préfèrent ajuster les images (« peindre les images ») pour obtenir un rendu artistique agréable, par exemple en augmentant légèrement la saturation des couleurs. Une fois que vous commencez à ajuster les réglages, il devient très difficile d’obtenir une correspondance précise entre les caméras de différents fabricants. C’est pourquoi l’UER a entrepris des travaux sur ce sujet, qui ont été présentés lors de l’IBC 2023. Le document EBU Tech 3 376 fournit un aperçu de base des contrôles artistiques des caméras proposés par l’UER.

 

Les images du couronnement étaient vraiment magnifiques. Mais que s’est-il vraiment passé en coulisses ? Avez-vous discuté de gamma et de HDR avec le futur roi pendant les répétitions ? Plus sérieusement, avez-vous rencontré des difficultés sur cette méga-production ?

La conversion de 2 160p en 1 080i a été compliquée. Vous vous souvenez peut-être de l’époque où vous travailliez chez Snell & Wilcox. La conversion du signal progressif à l’entrelacé est une opération délicate. En mars 2023, j’ai fait une présentation à nos principaux prestataires de services. Nous leur avons fourni une liste de convertisseurs que nous avions testés pour BBC Sport. Nous avions optimisé leurs réglages pour le football et le tennis, car ces sports présentent des défis particuliers. Le football est délicat en raison des lignes qui bougent sur le terrain, tandis que le tennis implique le filet au centre du terrain. L’un de nos ingénieurs de la vision m’a dit : « Oui, mais vous n’avez encore rien vu ». Rien n’est aussi critique que l’intérieur de l’abbaye de Westminster. Mon Dieu, comme il avait raison !

 

Qu’est-ce qui cloche avec l’abbaye de Westminster ? (Si vous avez besoin de travaux, on a une super équipe à la cathédrale Notre-Dame, on vous les recommande !) Plus sérieusement, pourquoi est-il plus difficile de filmer une cérémonie très lente à l’intérieur d’une cathédrale qu’un match de tennis à Wimbledon ou un match de football à Wembley ?

Parce qu’avec le football, les caméras sont en mouvement constant. L’obturateur reste ouvert pendant une période limitée, ce qui crée une certaine douceur dans l’image. En gros, ce qui entre dans votre convertisseur de signal progressif vers entrelacé est déjà relativement lisse. À l’intérieur de l’abbaye de Westminster, il y a une profusion de détails sur les murs, de bois sculpté dans le chœur et de tapisseries. Les plans des caméras sont généralement statiques, ce qui ne pose généralement pas de problème. Cependant, dès qu’une caméra effectue un zoom lent, tous ces détails peuvent produire de l’aliasing (effet d’escalier ou d’ondulation) si l’on n’est pas très prudent.

Le défi avec le 1 080i est que la bande passante verticale que le filtre peut gérer diminue dès qu’un objet commence à se déplacer à l’écran. C’est pourquoi l’UIT a lancé des travaux sur la conversion du signal progressif à l’entrelacé. Nous sommes bien conscients de ces problèmes depuis des années. Prenons l’exemple du filtre à trois trames inventé par l’ingénieur R&D Martin Weston pour la conversion du signal entrelacé à progressif. Ce filtre prend en compte le fait que le 1 080i peut accepter une résolution verticale plus élevée pour les images statiques que pour les images en mouvement. La largeur de bande verticale du filtre change en fonction de la vitesse du mouvement. Plusieurs chaînes de télévision ont été confrontées à ce problème, c’est pourquoi l’UIT travaille actuellement sur un document plus détaillé. L’entrelacement reste un point à surveiller attentivement.

 

La production HDR avec contrôle de la vision de la caméra en SDR a été testée pour la première fois en 2019. Le document BT.2 408 de l’UIT, en accès libre en ligne, fournit des informations détaillées à ce sujet. © DR

 

Les anciens problèmes ressurgissent des dizaines d’années plus tard. L’entrelacement en est un, la conversion de cadence d’image (« frame rate conversion ») en est un autre. Cela rappelle l’événement GP Explorer 2 avec des youtubeurs en France en septembre 2023. La captation semble avoir été réalisée à une cadence de 50 images par seconde sur le circuit du Mans. Il a ensuite été diffusé en direct sur Twitch en 60p. Devinez ce qui s’est passé ? Des saccades sur les panoramiques de la caméra, comme dans les années 80. Les voitures étaient suivies d’une ombre floue.

Oh my goodness (« Oh mon Dieu ») ! Cela me rappelle quelque chose à propos du couronnement : Sky a repris notre signal HLG et a ajouté ses propres caméras à notre signal international. Ils l’ont diffusé sur Sky News et également sur YouTube. Je pense que YouTube a effectué une conversion de 50 à 60 images par seconde.

 

La BBC a d’abord lancé un appel d’offres pour la production de l’événement du couronnement. Quelques mois plus tard, il y a eu la production en direct avec sept camions et cent caméras UHD HDR. Que s’est-il passé entre les deux ?

En réalité, c’est la BBC Studios Events qui a produit l’ensemble de l’événement du couronnement. Ils ont des années et des années d’expérience. C’est leur métier et ils sont excellents. J’ai commencé à travailler avec eux pour le mariage royal de 2018, celui du duc et de la duchesse de Sussex. C’était notre première production en direct en UHD HDR, juste avant la Coupe du monde de football. Le couronnement était prévu depuis très longtemps. Vous savez que des funérailles et une cérémonie de couronnement auront lieu à un moment donné.

En 2018, Peter Taylor, directeur des opérations chez BBC Studios, était très favorable à l’UHD et au HDR. Il s’est beaucoup investi pour réaliser le mariage royal en UHD HDR. C’était une décision très audacieuse, mais il avait une grande confiance en nous. Il pensait que ces événements d’État avaient une grande valeur et qu’il fallait les capturer de la meilleure façon possible à ce moment-là. Nous n’avons pas diffusé le mariage sur iPlayer [service de streaming en ligne de la BBC] car nous n’étions pas prêts. C’était notre premier programme en direct en UHD HDR, très médiatisé, et il était difficile de dimensionner le nombre de téléspectateurs en streaming. Or, le streaming sur Internet reste le seul moyen de diffusion de l’UHD, le public n’a donc pas pu accéder à ce contenu en UHD. Nous l’avons donc réalisé principalement pour les archives.

 

2018 a marqué le grand début de la production UHD HDR en direct : mariage royal, Coupe du monde de football…

En réalité, nous avons diffusé la Coupe du monde de football en Russie parce qu’elle était un peu plus facile à anticiper en termes de nombre d’internautes, et nous avions plus de temps pour effectuer des tests. La Coupe du monde 2018 a été produite en S-Log3, puis nous l’avons convertie en HLG pour notre propre production et pour la diffusion HLG [sur le service de streaming iPlayer de la BBC]. Le mariage royal a été réalisé principalement pour les archives, et nous avons pu le justifier pour ces raisons.

Peter m’a dit qu’il y aurait bien sûr des funérailles à un moment donné, mais avec des funérailles, vous n’avez pas le temps de tout préparer. Il m’a donc dit : « Désolé de te décevoir Andrew, ce ne sera pas de l’UHD HDR. » Puis il a ajouté : « Il y a peut-être un événement d’État, un peu plus tard, auquel nous pourrions penser ! » J’espérais que nous pourrions réaliser le couronnement. Mais dans une grande maison comme la BBC, il faut réussir à fédérer les équipes autour d’un même projet. Il faut que tout le monde soit d’accord pour dire que c’est la bonne chose à faire. Peter s’occupe de l’aspect technique en collaboration avec Claire Popplewell, la directrice de la création de BBC Studios Events.

 

Dans la pratique, combien de temps avez-vous eu pour tout mettre en place avant l’événement ?

Nous n’avons eu accès aux camions de production que quelques jours avant l’événement. Mais nous savions que le workflow fonctionnait. Nous l’avons utilisé pour Glastonbury, pour l’Euro 2020, nous avons effectué des essais en 2019, donc nous savions que le workflow était robuste. Sky l’utilise tous les jours, je pense qu’il peut y avoir jusqu’à seize programmes au cours d’un même week-end. Le même workflow a été utilisé pour les Jeux Olympiques d’hiver de 2022 et pour la Coupe du monde de la FIFA. Les LUT étaient certes différentes, mais le workflow de base était le même. Nous savions qu’il était robuste et capable de produire d’excellents résultats en HDR comme en SDR.

 

Comment vérifiez-vous la cohérence lorsque sept équipes différentes produisent un signal à partir de cars distants situés à plusieurs kilomètres, avec plusieurs marques de caméras et différents réglages ?

Pour le signal principal, la conversion du HDR au SDR et du 2 160p au 1 080i a été effectuée dans le car de réalisation. Un retour signal a été envoyé à tous les autres cars distants. Ils pouvaient vérifier la version locale qu’ils avaient générée. Ils pouvaient s’assurer de la cohérence entre le signal local produit par leur car et le signal final après être passé par toutes les infrastructures, le car de réalisation et ensuite à l’antenne. C’était donc une vérification utile.

 

Produire un programme en direct en HDR en visualisant le signal SDR peut être perturbant…

Lorsque les gens le font pour la première fois ou qu’ils ont utilisé un workflow légèrement différent, ils peuvent avoir des appréhensions. Beaucoup de productions antérieures utilisaient des voies de traitement HDR et SDR parallèles, et les équipes techniques étaient beaucoup plus à l’aise avec cela. Cependant, ces méthodes sont complexes et coûteuses. En général, une fois que les gens ont fait un essai et se disent « OK, ça peut marcher », ils finissent par y adhérer.

 

Comment réaliser une production simple en HDR et SDR ? Le rapport de l’UER TR 070, en accès libre en ligne, fournit des détails à ce sujet. © DR

 

Où peut-on trouver des détails sur le workflow de production HDR-SDR en direct ?

Ce workflow est documenté dans le rapport de l’UIT BT. 2 408, section 7.2.2. Nous avons rédigé ce texte en 2019 à la suite des essais de la BBC lors de la FA Cup, et il a été mis à jour depuis. Avec l’introduction de caméras de ralenti HDR et des réglages avancés (« Painting »), le workflow a été considérablement simplifié. Il est également documenté dans le TR 070 de l’UER, qui est le document issu de l’atelier de Baden-Baden 2022. Il s’appuie sur l’expérience de plusieurs diffuseurs sur le HDR, dont Sky, BT Sports, HBS, NBC Universal et bien sûr la BBC. En ce qui concerne la production en direct, les gens maîtrisent à présent ce qu’il faut faire.

 

Quelles sont les préoccupations des ingénieurs de la vision concernant le workflow ?

La fonction de « knee » de la caméra est un moyen de gérer les luminances élevées. L’autre option consiste en un écrêtage simple qui supprime toutes les luminances supérieures à une certaine valeur. Source : Sony

Nous convertissons la sortie HDR de la caméra en SDR pour le travail de l’ingénieur de la vision. Nous compressons les hautes lumières à l’aide de ce que l’on appelle une « courbe de tonalité » (« Tone-curve »). C’est un peu comme un « knee » traditionnel de la caméra. De nombreux ingénieurs de la vision au Royaume-Uni n’utilisent pas les « knees » de caméra. Ils préfèrent que les blancs SDR soient simplement écrêtés, en particulier pour les sports. Il y a toutes sortes de raisons à cela. L’une d’entre elles est que si vous mettez un « knee », vous pouvez voir des effets indésirables sur les nuages, ils font une sorte de « bulle » avec des détails qui vont et viennent. Mais je suis tout à fait à l’aise avec les « knees » des caméras.

C’est d’ailleurs le « knee » de la caméra qui a inspiré le HLG d’une certaine manière. Un knee de caméra permet de reproduire un signal avec une dynamique plus élevée sur un écran SDR. Que se passerait-il si l’on procédait de la même manière pour la télévision HDR ? Cela permettrait-il d’obtenir un système qui offre une image compatible à partir d’un signal HDR sur un écran SDR ? Mon collègue Tim Borer a répondu : « Ah oui, ça pourrait marcher. » Et il a fait tous les calculs compliqués pour le prouver.

Rappelez-vous, la rétrocompatibilité avec les écrans N&B était essentielle à l’époque pour les systèmes NTSC, PAL et Sécam. Celle même rétrocompatibilité est également fondamentale pour le HDR, même si les écrans UHD SDR BT.2020 sont de plus en plus répandus en production et chez les consommateurs en Europe.

 

À gauche, les détails de haute luminance disparaissent avec l’écrêtage simple. À droite, le « knee » de la caméra permet de conserver une luminance élevée, mais il peut entraîner des effets indésirables. Le HLG agit comme un « knee » de caméra intelligent (car il est non linéaire). © Sony

 

Un « knee » de caméra est comme une LUT simple (1D-LUT). La conversion de HLG en SDR est une LUT non linéaire en trois dimensions (3D-LUT). Pouvez-vous nous en dire plus à ce sujet ?

Le HLG est conçu avec beaucoup de soin, et il offre un niveau standard de compatibilité ascendante avec les écrans SDR compatibles avec la gamme de couleur BT.2020. Cependant, pour la plupart des applications de production, nous devons créer un signal HDR destiné à un écran BT.709. Pour ce faire, nous avons besoin d’un traitement plus complexe qui peut être mis en œuvre à l’aide d’une LUT en 3D. Nous partons d’un espace colorimétrique beaucoup plus large que celui d’une caméra SDR conventionnelle équipée d’un simple « knee ». Cela nous permet de créer avec précision la « courbe de tonalité » de manière à ce qu’elle n’affecte pas les tons de peau et évite les distorsions de couleur courantes avec un simple « knee ». Un des ingénieurs de la vision a exprimé des réserves quant à l’utilisation d’un « knee », affirmant préférer un simple écrêtage. Cependant, personne n’a rencontré de problème avec le « knee » au fil des ans. Après la production du couronnement, l’ingénieur a exprimé à nouveau son inquiétude. Nous lui avons offert la possibilité de passer au laboratoire pour des tests plus approfondis, mais il n’a pas encore saisi cette opportunité.

 

Vous ne semblez pas être un grand fan de l’écrêtage de la caméra pour produire du SDR…

Nous avons besoin d’un écrêtage doux, même si ce n’est pas ce qui a été utilisé pour le football dans le passé. Nous devons évoluer vers un processus où la conversion du HDR au SDR et du 2 160p au 1 080i se fait dans le nodal après la production et la diffusion en régie finale. Nous ne voulons pas renvoyer le UHD HDR et le HD SDR à chaque car de production ! C’est pourquoi nous avons besoin d’un convertisseur (ou « down-mapper ») capable de gérer tous les types de contenus, du football en direct à la fiction, aux documentaires, et plus encore. Il nous faut une LUT qui fonctionne pour tous les genres de programmes. Les responsables de films ou de documentaires ne sont pas enthousiastes à l’idée de fournir un seul PAD en HDR. Ils comprennent toutefois la nécessité d’atteindre cet objectif.

 

Les coloristes sont la référence par excellence lorsqu’il s’agit de l’étalonnage d’un programme. Que disent-ils des LUT HLG pour la conversion HDR vers SDR ?

Les coloristes avec lesquels nous avons discuté ont bien compris la situation. Ils estiment qu’ils peuvent s’en accommoder à deux conditions :

1) Les versions HDR et SDR doivent offrir le même rendu subjectif, ce qui nécessite l’utilisation d’une LUT plutôt que de l’écrêtage. Ensuite, les détails dans les ombres et les tons moyens doivent paraître identiques, ce qui nécessite une conversion non linéaire adaptée au gamma. Enfin, il ne doit y avoir aucune distorsion visible des couleurs, ce qui exige une LUT 3D plutôt qu’une LUT 1D.

2) Lors de l’étalonnage, nous devons contrôler le signal HDR à l’aide d’une LUT de conversion vers le SDR pour nous assurer qu’il n’y aura pas de problèmes.

Nous n’en sommes peut-être pas encore tout à fait là, mais nous nous en approchons rapidement, et c’est précisément pour cette raison que nous utilisons cette compression douce des hautes lumières. Les ingénieurs de la vision peuvent être un peu réticents au début, mais ils finissent généralement par l’adopter.

 

Où peut-on trouver les LUT de la BBC ?

Il y a plusieurs façons de les obtenir. Elles peuvent être incluses en standard dans certains produits de conversion. D’autres fabricants d’équipement peuvent proposer des licences que vous pouvez charger. Enfin, certaines chaînes de télévision obtiennent des licences directement auprès de la BBC, puis les chargent sur leur matériel.

 

Nous n’avons pas encore prévu de cérémonie de couronnement en France ! Mais les Jeux Olympiques sont pour 2024. Nous espérons donc voir d’autres superproductions en UHD HDR. Merci Andrew pour votre temps précieux et vos idées. Comme on dit en français : « Longue vie au Roi » !

Merci François !

 

Article paru pour la première fois dans Mediakwest #54, p. 86-94