Créée en 2016 par les frères Frédéric et Philippe Petitpont, la société exploite les solutions Just Index, Media Hub, Live Asset Manager et Media Marketplace.
En quoi votre offre se distingue-t-elle de celle de la concurrence ?
Yvan Lataste : Trois points différencient Newsbridge. D’abord, nous sommes les seuls sur le marché à pouvoir gérer en une seule plate-forme cloud à la fois les contenus live et les fichiers (archives) : nous considérons que le live d’aujourd’hui est l’archive de demain. Le contenu d’un ayant droit sportif ou d’un média est dans plus de 80 % des cas déjà tourné en live. L’expérience du produit (clipping, transcription, reconnaissance de contextes, de personnes…) fonctionne de la même façon pour un utilisateur, que son contenu soit en live ou en fichier.
Ensuite, les pipelines d’IA que nous développons (détection de visages, scènes, contextes, logos et transcription) fonctionnent de manière multimodale. Nous utilisons de la fusion de données pour détecter des éléments forts et augmenter leur qualité. Par exemple, si, sur un match de foot, j’entends « Mbappé » dans l’audio, que je vois son visage et en plus son nom sur un maillot, les résultats sont fusionnés, améliorant grandement la qualité de détection et permettant également de le reconnaître de dos, par exemple.
Enfin, l’utilisateur a la capacité d’entraîner ses propres modèles. C’est le cas des visages. Il est possible d’apprendre à la machine à détecter des personnalités inconnues, comme, par exemple, les joueurs d’une ligue secondaire, en utilisant deux à trois photos. Il en est de même pour le logo d’un sponsor, par exemple.
Votre offre est-elle le fruit de votre propre R&D ou avez-vous fait appel à des partenaires technologiques ? Dans cette dernière hypothèse, sur quels points ?
Oui, notre technologie est propriétaire et s’appuie sur le travail de notre équipe R&D. Nous avons un pôle dédié à la recherche en IA. Nous travaillons d’ailleurs en étroite collaboration avec de grands laboratoires de recherche en Europe. Le produit évolue constamment via des releases hebdomadaires, c’est la force du modèle SaaS et de l’approche « cloud native ». Nous utilisons peu de machines et privilégions plutôt une approche serverless nous permettant d’avoir des cycles de développement et de mise sur le marché très courts, ce qui s’avère pratique pour certains clients challengeant nos capacités de détection ou s’il y a besoin d’intervenir en maintenance rapidement.
Quid en particulier de la technologie cognitive que vous utilisez pour indexer les contenus ?
La technologie cognitive de Newsbridge permet de détecter des visages de personnes connues en s’appuyant sur des bases de connaissance publiques ou permises via un apprentissage réalisé par nos utilisateurs simplement via notre interface. Nous pouvons également faire l’apprentissage des logos, motifs particuliers, textes, scènes et objets.
Quelle est la part de l’intelligence artificielle dans vos services ? L’IA intervient-elle uniquement au niveau de l’indexation ?
Oui, notre IA a pour vocation d’indexer une masse de contenus le plus précisément possible. Elle alimente de facto notre moteur de recherche, les outils de tri, métadonnées générées pour le SEO (optimisation pour les moteurs de recherche), etc. Les cas d’usage liés à l’indexation sont multiples.
Pour le sport notamment, à court ou moyen terme, votre plate-forme va-t-elle s’enrichir de nouvelles fonctionnalités ? Par exemple, travaillez-vous à élargir l’indexation contextuelle ? Si oui, quelles sont les pistes en la matière ?
Nous avons un projet de R&D en cours – projet sur lequel nous avons des résultats extrêmement prometteurs – se basant sur l’« Early Fusion » et qui a pour objectif d’augmenter considérablement la pertinence et la vitesse de l’indexation automatique. Les bénéfices seront multiples : une IA moins énergivore, plus accessible et qualitative, en particulier sur la génération de descriptions éditoriales. Nous faisons partie des précurseurs sur le sujet au niveau mondial et allons partager, comme nous l’avions fait sur la diarisation, nos avancées sur ce sujet.
Avez-vous dès maintenant les outils pour aller plus loin, notamment dans la détection visuelle (scènes, contextes, objets, personnalités…) et sonore (contenu d’un discours ou d’un échange) ?
Oui, notre technologie permet déjà de faire ce que vous décrivez : détection des personnes, objets, textes, logos, contextes, transcription de l’audio en texte, traduction, etc.
D’une manière plus générale, quelles sont, selon vous, les grandes tendances qui se dessinent sur votre segment de marché ?
Aujourd’hui, seulement 2 % des contenus produits sont stockés dans le cloud. Cela veut dire que 98 % des contenus sont sur des unités de stockage physiques. La crise du Covid et les nouvelles habitudes de travail ont accéléré le changement et les projets de migration vers le cloud se multiplient. Avec cela, de nouvelles opportunités émergent ainsi que de nouveaux business model pour les ayants droit.
Combien d’heures de contenus traitez-vous par an et, pour le sport, avec quels clients travaillez-vous actuellement ?
Tous clients confondus, nous traitons annuellement plusieurs centaines de milliers d’heures de contenus. Pour le sport, nous travaillons avec des fédérations, des ligues, des clubs et des médias spécialisés, parmi lesquels nous pouvons citer les Fédérations françaises de football, de rugby, de basket-ball, la Ligue nationale de rugby, le journal L’Équipe, et des clubs comme le Bayer Leverkusen, l’Olympique de Marseille et le LOSC (Lille).
Est-ce que la prestation est la même pour tous ?
Nous proposons quatre solutions. La quasi-totalité de nos clients, clubs et fédérations, optent pour les mêmes cas d’usage, à savoir Media Hub et Media Marketplace. Cela implique une migration initiale des archives (en basse ou haute résolution, selon les cas) et l’enregistrement des lives (photos et vidéos) de la saison en cours. Quant à la facturation, nous avons un modèle SaaS basé sur une souscription à l’année.
Extrait de l’article paru pour la première fois dans Mediakwest #50, p. 120-132