Ces nouveaux paradigmes ne constituent pas une solution univoque et globale à laquelle tous les acteurs devraient se soumettre ou alors la refuser en bloc avec des a priori tranchés. Chaque évolution technologique est en réalité une combinaison complexe d’outils et de services modulaires à adapter et à dimensionner selon ses besoins. Pendant de longues années encore, les outils dédiés et propriétaires installés dans les locaux techniques voisineront de manière imbriquée avec des services ouverts et externalisés dans d’immenses data centers invisibles et non localisables.
Une phase d’expérimentations
Les nouveaux services de diffusion (VOD, OTT, mobiles…) exploitent à fond ces outils car la nature de leur transport sur réseau IP et la consultation individuelle en mode fichiers sont parfaitement adaptées aux architectures du Cloud. La taille fort variable de leur auditoire et leur succès souhaité mais difficile à quantifier à l’avance privilégient le choix d’architecture dans le Cloud pouvant s’adapter très vite en termes de capacité avec une préférence très claire des financiers pour les coûts chiffrés en OPEX plutôt qu’en CAPEX (voir MK#12). Les chaînes premium traditionnelles sont plus attentistes et se lancent pour l’instant dans des expérimentations ponctuelles et limitées : stockage distant partagé, archivage, conversion de fichiers, infrastructure de secours pour un PRA (plan de reprise d’activités).
Dans les temps anciens, l’exploitant restait à côté de la machine dont il avait la charge. Très vite, à cause des nuisances sonores et thermiques, les équipements ont été regroupés dans un local technique séparé. La régie ou la salle de contrôle reste à proximité car la longueur des câbles de télécommande, et des liaisons audio et vidéo câblées en cuivre reste limitée. Avec le basculement des télécommandes et des déports KVM vers le tout IP et les liaisons en fibre optique, on s’affranchit de cette contrainte et le pilotage à distance des équipements devient une réalité. Mais dans de nombreuses chaînes ou prestataires, les salles techniques restent sur place et exigent des aménagements lourds en termes de climatisation, d’électricité et de sécurisation. Les surfaces attribuées à ces locaux pèsent aussi sur le budget immobilier.
L’ouverture de data centers aux capacités sans cesse en augmentation, la généralisation des technologies IP et le déploiement de réseaux en FO à large échelle ont permis l’émergence du marché du Cloud et de délocaliser certaines activités liées à la production ou à la diffusion, en particulier celles basées sur le mode fichier. On limite les coûts immobiliers et on élimine la gestion de locaux techniques puisque le data center va gérer globalement, pour l’ensemble de ses clients, les services liés à la climatisation, à l’alimentation électrique et en répartir les coûts sur l’ensemble des clients.
Au niveau du data center, plusieurs options sont possibles. Soit le client y apporte ses propres équipements qui restent sa propriété, le data center apportant ses prestations d’infrastructures uniquement. Les liaisons peuvent être constituées de fibres optiques noires passives, avec mise en place par le client des équipements de transport IP et véhiculant les signaux AV en bande de base. L’ensemble des équipements et des liaisons restent ainsi dans un îlot totalement séparé du reste du monde. Cela correspond à une simple délocalisation de la salle technique.
Architecture publique, privée ou totalement fermée ?
La seconde option est plus ambitieuse et novatrice et s’appuie sur la puissance combinée du Cloud et de la virtualisation. Les équipements de calcul et de stockage sont fournis par l’opérateur du data center et, à l’aide de la virtualisation, le client fait tourner sur ces machines les applicatifs en fonction de ses besoins mais n’est plus propriétaire du hardware. Il loue du temps machine qu’il peut faire modifier au gré de ses pics d’activité. Cette machine peut lui être affectée à son propre usage ou alors partagée avec d’autres clients. Au niveau des liaisons qui seront toutes en IP y compris les signaux AV, là aussi, deux options : des liaisons qui lui sont réservées à lui seul sur des VPN avec de la QoS (selon le type de service, transferts de fichiers ou signaux transmis en live) ou bien mutualisées avec d’autres clients et là on aboutit à l’utilisation d’un Cloud totalement public. Cette dernière est sans doute la moins onéreuse car le partage des ressources entre de multiples clients réduit les coûts mais elle ouvre la voie à toutes sortes de risques inhérents à la juxta- position de services et de données de nature et d’origine très diverses sans parler des risques de piratage ou de rupture de services.
Il existe toute une combinatoire aux niveaux de services offerts et leur répartition en termes de responsabilité. Donner un avis définitif et tranché sur le Cloud est une vision simpliste qui ne reflète pas la diversité des alternatives disponibles : équipements propriétaires, dédiés ou mutualisés, les liaisons réservées à un service unique ou partagées, et un agencement dans une architecture fermée ou ouverte. Il est évident que les risques ne sont pas les mêmes selon l’architecture envisagée et que les coûts varieront énormément selon le degré de mutualisation des équipements et des services.
La virtualisation n’est pas le Cloud
Le concept de virtualisation est souvent associé au Cloud car la combinaison des deux technologies décuple leurs potentialités mais chacune d’elles peut être dissociée selon les situations d’exploitation. Sur un ordinateur ou un serveur, elle consiste à faire tourner une application qui simule un ou plusieurs OS (système d’exploitation) différent de l’OS hôte tournant en base sur la machine. L’un des avantages est d’éliminer les problèmes de changement de machines en fonction des applicatifs et de l’OS. Le second est de pouvoir relancer une « instance » de manière quasi instantanée et de reconfigurer une machine pour qu’elle remplisse une autre fonction à partir d’images disques préalablement configurées. La virtualisation combinée au Cloud et aux immenses data centers offre une souplesse inégalée pour redimensionner une architecture ou augmenter des capacités de calculs pour une tâche sans se préoccuper du hardware dédié et des OS à installer. Dans ce cadre, la facturation est liée à la puissance et surtout au temps d’utilisation. Pour une opération limitée dans le temps, les délais de mise en route et les coûts d’exploitation sont diminués de manière drastique par rapport à une installation complète (hardware + soft) à installer en dur dans sa salle technique. Là aussi, des optimisations techniques et financières sont à examiner de près en fonction de la durée de l’utilisation, de l’évaluation des coûts (CAPEX par rapport à l’OPEX) mais cette méthode de virtualisation peut s’envisager pour les équipements techniques d’une chaîne ou d’un prestataire indépendamment d’un usage du Cloud et/ou de data centers extériorisés.
De nouveaux acteurs pour commercialiser les offres
Analyser et comprendre les offres du Cloud n’est pas une chose aisée. Les propositions commerciales sont très complexes avec de multiples options et services à combiner entre eux. Obtenir l’offre parfaitement adaptée exige une démarche minutieuse et des compétences adaptées. Les chaînes premium s’entoureront de spécialistes au fait des arcanes de ces nouveaux acteurs, mais les chaînes locales ou thématiques feront sans doute appel à des intermédiaires qui agenceront les éléments du service (stockage, serveurs, virtualisation, connectivité) dans une offre complète dimensionnée à leurs besoins.