Arthur Verrez nous explique que la virtualisation est une technologie ancienne, dont Flaneer a optimisé le fonctionnement entièrement cloud. Une maîtrise des coûts lpermet des abonnements adaptés et une simplicité d’exploitation.
Comment a débuté le projet Flaneer ?
Arthur Verrez : L’aventure a pris forme il y a un an et demi alors que nous étions encore étudiants ingénieurs à l’École des Mines de Paris. Nos différentes expériences professionnelles ont mis en évidence des problèmes récurrents, exacerbés pendant la crise de la Covid 19. Dans les petites entreprises, les PME, mais également des groupes plus importants, l’accès à des espaces de travail sécurisés et à de la puissance de calcul dans un cadre de télétravail a été un des sujets fondamentaux.
La crise traversée par le marché des semi-conducteurs amplifie les difficultés. Elle ne bloque pas l’acquisition de machines, mais les délais peuvent dépasser six mois pour la réception d’une installation complète. Flaneer est né de ce constat. Nous voulions proposer une réponse flexible et sympathique via un service d’externalisation des accès à la puissance de calcul et au hardware.

Ce constat s’adapte-t-il aux métiers de l’audiovisuel ?
Avec le passage de la haute à l’ultra-haute définition en l’espace de seulement quelques années, la forte augmentation de la taille des fichiers et de la quantité de calculs a imposé un déploiement hardware conséquent et beaucoup de flexibilité. Les entreprises de l’audiovisuel sont souvent de petites structures s’entourant de nombreux indépendants. Le principe de la virtualisation s’imposait.
Nous n’avons pas démarré notre entreprise autour d’une technologie disruptive comme le blockchain ; la virtualisation existe depuis la fin des années 90. Mais notre offre s’articule autour d’une solution de virtualisation accessible au plus grand nombre, entièrement hébergée dans le cloud.
Est-il nécessaire de créer un nouveau produit dédié à la virtualisation si des acteurs historiques sont déjà présents ?
Les acteurs historiques de la virtualisation, VMware et Citrix, ont inventé des produits de virtualisation des postes de travail révolutionnaires, mais leur déploiement très complexe coûte cher. Il nécessite des équipes informatiques dédiées, réservées aux grandes entreprises. À l’époque de la création de ces solutions, le cloud n’était pas mature. De nombreux fournisseurs de solutions cloud ont depuis déployé leurs offres tels qu’AWS, Microsoft Azure et Google Cloud. Aujourd’hui, les besoins de virtualisation ne se limitent plus aux grands groupes.
Notre motto (notre but) a consisté à démocratiser l’outil pour que même nos parents, novices en informatique, puissent gérer la solution de bout en bout. Actuellement basé sur AWS, nous avons comme projet de devenir multicloud. Nous gérons en back-office la complexité des installations et l’optimisation des coûts pour nos clients : des organisations de toutes tailles, des TPE, PME et même des plus grands groupes de l’audiovisuel, l’ingénierie, l’édition de jeux vidéo ou les effets spéciaux. Nous leur permettons en quelques clics des déploiements dans le cloud qui auraient pris des mois sur site. D’autres solutions de virtualisations en lignes exploitent leurs propres matériels, leurs propres serveurs. Nous ne ciblons pas le marché des particuliers pour qui des offres existent déjà.
Pour synthétiser votre démarche, vous packagez les solutions d’AWS pour optimiser et simplifier leur exploitation tout en réduisant les coûts ?
Exactement ! Au niveau d’une seule entreprise, il serait trop onéreux de recréer notre offre qui inclut énormément d’optimisation des déploiements dans le cloud. Nos coûts sont rationalisés par le volume d’installations déployées.
Avec mon cofondateur, Paul Garnier, nous bénéficions d’une forte expérience dans le domaine de l’intelligence artificielle, et maîtrisons la planification et l’optimisation des ressources. Les machines que nous proposons en abonnement mensuel, nous sont facturées à l’utilisation. Sans cette optimisation, une station de travail louée 40 euros par mois à nos clients leur serait facturée 1 euro par heure via AWS, soit 140 euros mensuel minimum pour 35 heures d’utilisation par semaine. Nous offrons de nombreuses fonctionnalités supplémentaires et une grande simplicité d’utilisation appréciées de notre public. La sécurité est pour nous très importante. Nos clients bénéficient d’une sécurité aussi grande que celle d’Amazon.
N’est-il pas bloquant pour certains clients d’utiliser une solution uniquement disponible sur Amazon ?
Les arguments dans ce sens sont souvent émotionnels. Nous avons fait le choix d’AWS parce que les solutions de cloud françaises ne sont pas concurrentielles avec les géants américains, en termes de coûts et de performances. Nous sommes cependant ouverts dans l’avenir pour devenir multicloud et intégrer notamment OVH.
Dans la pratique, peu de clients, surtout les PME, s’en soucient. C’est différent pour des grands groupes tels que TF1 avec qui nous sommes en discussion, pour qui c’est au contraire un impératif. 99 % de nos clients français souhaitent que leurs données soient hébergées dans des data centers en France, mais certains clients utilisent la solution pour pouvoir recruter à l’étranger. Lorsque les recrues sont en Allemagne, nous leur fournissons des machines à Francfort.
Nous avons également des clients américains et la force du cloud, c’est que nous travaillons évidemment avec des data centers américains. Contrairement aux solutions utilisant leurs propres matériels, nous sommes totalement libres géographiquement et pouvons étendre notre offre à la demande : un client pourra commander 3 000 ou 10 000 machines supplémentaires de manière transparente. Chaque machine est déployée en 5 minutes, et les déploiements se font parallèlement.

Quelle est la taille de votre équipe et où êtes-vous localisés ?
Nous sommes huit, mais seulement trois basés à Paris : moi, mon cofondateur et notre directeur des ventes. Si actuellement, il y a une pénurie de développeurs, il y a néanmoins des talents présents dans le monde entier. Nous avons des employés qui habitent en périphérie de Paris, d’autres à Toulouse et à Tours et également à Londres et en Allemagne. Nous vivons pleinement la vie de télétravailleurs. Nous prenons beaucoup de plaisir à proposer un très beau produit avec une équipe restreinte.
Comment se matérialise techniquement votre offre pour les clients ?
Les clients, qu’ils soient développeurs, professionnels de l’audiovisuel, designers ou créateurs de jeux vidéo, accèdent à leurs machines à partir d’une application Web dans un environnement sécurisé, directement depuis leurs navigateurs. Ils cliquent sur celle qu’ils souhaitent utiliser et peuvent commencer à travailler. Ils ont juste besoin d’un simple ordinateur, d’une connexion Internet et d’un navigateur. Sur ma machine, je n’ai que Chrome et Netflix.
Comment définissez-vous les applications qui seront déployées sur la machine ?
Nous donnons accès à un système d’exploitation complet et tous les logiciels peuvent être installés. Nous proposons également à nos clients des environnements préconfigurés, notamment autour de la suite Adobe que nous gérons très bien. En les choisissant, le client accède à son installation prête à servir en un clic. Les utilisateurs ont juste à renseigner les identifiants de leur compte Adobe Creative Cloud que nous ne fournissons pas.
L’École des Mines, où nous avons étudié, est notre tout premier client. Nous sommes vraiment flattés que notre école nous soutienne assez pour acheter notre licence. Ils exploitent la solution pour de grosses modélisations avec la suite Dassault System et les outils d’Autodesk et de Solidworks. Deux solutions sont possibles pour les logiciels gérés par des serveurs de licences : soit l’utilisation d’un VPN pour que les stations de travail accèdent au serveur de licence local, soit une conversion entièrement cloud avec l’utilisation d’une machine virtualisée en serveur de licences. Celui-ci étant sur le même réseau peut fournir les jetons de licences à toutes les machines.
Votre solution traite des problématiques de puissance matérielle. Comment abordez-vous les besoins de stockage et les échanges avec les stations de travail ?
Dans le domaine de l’audiovisuel, la taille des fichiers est la plus grande problématique du passage vers les solutions cloud. La quantité de rushes peut se comptabiliser en téraoctets et le transfert prend du temps. Mais les problématiques existent également en local, avec des échanges complexes de médias via des disques SSD. Le montage ne peut pas débuter avant que le SSD soit apporté depuis la scène de tournage jusqu’aux bureaux de postproduction. Les studios adoptent de plus en plus des solutions de stockage cloud comme les bucket S3 d’AWS ou Google Drive File Stream qui, en traitant les fichiers en blocs, permet de les streamer.
Lorsque les ressources sont dans le cloud, elles sont exploitables avec les machines virtuelles comme si elles étaient sur un disque branché localement. Les data centers étant extrêmement bien connectés, les débits vont de 3 à 5 gigabits par seconde. Les rushes sont de plus en plus souvent uploadés directement dans le cloud depuis la scène de tournage. Les médias peuvent très rapidement être édités, depuis n’importe où, directement même sur le tournage.

Le coût de la solution Flaneer est-il relatif à un choix de configuration matériel ?
Nous proposons des stations depuis l’entrée de gamme avec de 8 à 16 Go de RAM, une carte graphique AMD entrée de gamme et un processeur quatre cœurs jusqu’à des monstres arborant pas moins de 300 cœurs et 350 Go de RAM disponibles ponctuellement. Nous adaptons les stations aux besoins. Les développeurs se contentent de petites cartes graphiques alors que le montage vidéo nécessite des stations un peu particulières. La flexibilité du cloud permet d’upgrader les stations pour des besoins accrus, par exemple en fin de postproduction.
Avez-vous intégré le paramètre environnemental dans la conception de votre offre ?
Absolument ! Lorsqu’un studio utilise des ressources locales, comme des cartes graphiques, il les exploite au maximum dix heures par jour et les renouvelle en moyenne au bout de trois ans. L’énergie utilisée pour le fonctionnement du matériel vient de réseaux électriques « communs » énergivores. À l’inverse, avec les solutions virtualisées, le CO2 émis pour la conception des ressources est partagé entre de nombreuses organisations. Le coût global en CO₂ est bien meilleur.
L’alimentation électrique des data centers est également finement optimisée, notamment à cause du coût important que les fournisseurs cloud cherchent à minimiser. Nous allumons les machines uniquement lorsqu’elles sont utilisées et n’exploitons que les emplacements SSD strictement nécessaires. Nous réduisons ainsi fortement notre empreinte CO₂. D’après l’Ademe, la virtualisation, même sans optimisation, permet à elle seule une amélioration énergétique entre 20 et 30 %. La virtualisation autorise le télétravail et le partage de ressources et donc l’optimisation énergétique. Les ordinateurs des utilisateurs peuvent être utilisés plus longtemps car les solutions de virtualisation sont accessibles grâce à un simple navigateur.
Certains logiciels, notamment en audiovisuel, sont uniquement disponibles en environnement Mac. Pouvez-vous virtualiser des stations Apple ?
Nous pouvons optimiser les coûts de virtualisation des environnements Windows et conserver une rentabilité impossible avec les ordinateurs Mac à cause des restrictions imposées par Apple. Une station Mac démarrée doit rester allumée obligatoirement 24 heures. C’est contre-productif en termes environnemental et de coûts qui exploseraient si nous voulions proposer des abonnements de machines cloud Apple.

Comment gérez-vous la qualité de l’image ? Est-il possible d’utiliser plusieurs écrans ?
Notre société est assez jeune. Nous avons pu utiliser des technologies de streaming récentes. Techniquement, la machine virtuelle capture les images à diffuser sur le terminal (ordinateur, tablette ou smartphone) de l’utilisateur, la compresse, l’encrypte, l’envoie sur le réseau, la décrypte, la décompresse et l’affiche. Selon la cadence d’images visée, toutes ces étapes doivent être effectuées en moins de 16 millisecondes pour assurer un affichage à 60 images par seconde. Nos clients sont sensibles à la qualité des images. Avec une connexion suffisante, nous permettons l’utilisation de quatre écrans 4K.
Quel est le débit nécessaire pour l’utilisation de quatre écrans 4K ?
Les algorithmes de compression font chuter les besoins en bande passante à zéro si rien ne bouge sur les quatre écrans. Si un film est diffusé sur un écran complet, les débits peuvent avoisiner 100 Mbit/s. Les débits constatés sur les solutions de nos clients sont généralement inférieurs à 15 Mbit/s pour des résolutions haute définition 1080p à 60fps ou 4K à 30 fps.
Pour obtenir une diffusion en couleur exacte – ce que de nombreux clients nous demandent – nous utilisons la technologie plus Gourmande en bande passante YUV 444. Une diffusion en compression sans perte (lossless) impose des débits encore plus importants. Nous adaptons la qualité de l’image en fonction des caractéristiques des réseaux de nos clients. Le travail en multiflux 4K nécessite l’utilisation d’une fibre, mais parmi nos clients, certains travaillent sur une connexion 4G à la campagne.
Avez-vous développé votre solution de streaming ?
Le développement d’un protocole de streaming est dépendant de la carte graphique, des drivers et de nombreux paramètres complexifiant l’obtention d’une solution universellement compatible. Notre protocole est donc limité et optimisé pour des machines et cartes graphiques spécifiques. Pour les cas plus généralistes, nous utilisons la technologie d’AWS Nice DCV, mais nous avons pour but à terme de généraliser l’utilisation de notre protocole. Nous gérons également la connexion de nombreux périphériques via l’USB Remotization : tablettes Wacom, contrôleurs de jeux ou systèmes son par exemple. Certains matériels de constructeurs moins répandus utilisent des drivers spécifiques que nous n’avons pas forcément intégrés.
Quelle est la latence de votre solution ?
La plupart du temps elle est inférieur à 10 millisecondes, et atteint parfois 8 millisecondes, de très bonnes valeurs pour la vidéo. L’amélioration de la latence sur des réseaux de qualité limitée est un énorme défi technique qui passe par l’optimisation du streaming et du cloud grâce à l’intelligence artificielle notamment. C’est un des points les plus complexes à traiter pour une nouvelle entreprise qui souhaiterait se positionner sur ce marché.

Y a-t-il besoin d’installer un « client » ou un logiciel sur les machines locales utilisant Flaneer ?
La solution est totalement utilisable via un simple navigateur, avec un iPad par exemple. Mais on recommande également l’installation d’un client pour assurer la meilleure connexion et le moins de latence possible. Nous n’avons pas encore d’application mobile. L’utilisation de quatre écrans 4K et l’obtention d’une qualité optimum n’est possible qu’avec le client local, mais la puissance de la machine ne joue pas sur la qualité.
Quel est le coût d’utilisation de la solution ?
Une machine standard avec 16 Go de RAM, 16 Go de RAM vidéo et un CPU Intel quatre cœurs est louée 50 euros par mois, alors qu’une configuration supérieure avec un CPU huit cœurs et 32 Go de RAM coûte 80 euros par mois. À l’intérieur de l’application Web les utilisateurs peuvent accéder à une bibliothèque d’environnements préconfigurés ou à un environnement vide avec uniquement le système d’exploitation prêt à recevoir leurs logiciels favoris. On peut également proposer des abonnements à l’utilisation, notamment pour des besoins ponctuels de machines « monstrueuses » avec 356 Go de RAM et 100 cœurs. Ce ne serait pas rentable de louer ces machines sur des durées importantes, mais il peut être très utile de disposer d’un mastodonte pendant une courte durée, par exemple une dizaine d’heures. Un studio de VFX nous a justement loué la plus grosse configuration disponible pour répondre à une deadline impossible à respecter avec leurs propres stations. Celles-ci compilaient deux images par jour.
Avez-vous une solution pour optimiser le chargement des médias depuis un disque dur local vers le cloud ?
La limite reste liée au débit de la connexion à Internet. Mais là où de nombreux serveurs de fichiers distribués limitent le débit, nous ne mettons aucune limitation. Comme d’autres solutions, nous découpons les fichiers en plusieurs bouts pour permettre de meilleures vitesses de transfert.
Extrait du dossier « Montage dans le cloud » paru pour la première fois dans Mediakwest #47, p. 54-71
