Dans le monde, plus de 250 millions de personnes sont en situation de handicap visuel et, dans les pays occidentaux, seulement 3 % des événements sportifs leur sont accessibles. En cause, le coût du matériel, le manque de personnel formé à la narration descriptive, les moyens de transport pour accéder aux stades, la rareté des services de renforcement visuel et sonore, des infrastructures souvent inadaptées à l’accueil de ces services, sans parler des sports qui se prêtent peu, ou mal, à leur déploiement.
« L’audiodescription ne me semble pas adaptée au tennis, par exemple, car nous ne pouvons pas nous exprimer sur place, le silence étant de mise. Même si cela était possible, la description resterait difficile, vu la répétition des actions et la longueur d’une rencontre, contrairement au football pour lequel nous avons inventé un système (division du terrain en quatre zones) afin de gagner du temps dans nos commentaires », témoigne Jean-Marc Streel, président de All Services Access (ASA).
Après avoir réalisé en 2011 un premier test lors d’une rencontre à Mons, cette association pionnière en Belgique, pays déjà leader en matière d’inclusion scolaire*, propose chaque saison une cinquantaine de matches de trois équipes francophones et de l’équipe nationale belge, à l’aide de matériel Schneider (émetteurs, récepteurs sous forme de casques filaires, transportables dans des racks, avec pieds d’antenne et antennes, plus un micro sans fil en certaines occasions).

Les organisations sportives à la traîne
Autre frein : le manque de sensibilisation des organisations sportives en général aux dynamiques sociétales actuelles et à la cause du handicap en particulier, en dépit d’avancées parfois historiques vers l’inclusion. Ainsi, lors des Jeux Olympiques et Paralympiques de Paris, qui ont eu un effet de vitrine, les spectateurs déficients visuels ont pu bénéficier des services d’une cinquantaine d’audiodescripteurs, étudiants pour la plupart. Ainsi encore, l’Union des associations européennes de football (UEFA) collabore avec Accessiball, avec laquelle d’ailleurs ASA a un accord, pour recruter, former et développer à travers l’Europe un réseau d’audiodescripteurs qualifiés et expérimentés, afin que ceux-ci interviennent lors des finales et phases finales des compétitions seniors qu’elle organise.
Déjà, lors de l’Euro 2016 en France, l’instance sportive avait chargé l’association belge de former une quarantaine d’audiodescripteurs en langue française pour l’ensemble des matches du tournoi, après avoir inauguré ce genre de service lors de l’Euro 2012 en Pologne et en Ukraine. Tous les stades disposaient de canaux FM spécifiques diffusant des commentaires audiodescriptifs en direct.
À l’origine, le service était fourni par radio. Cela impliquait l’installation d’une antenne et d’un dispositif d’émission dans le stade, ainsi que la sécurisation des fréquences. De plus, des récepteurs radio étaient nécessaires, soit fournis par l’UEFA, soit apportés par les spectateurs eux-mêmes. Depuis l’Euro féminin 2022, « nous sommes passés à une solution numérique en utilisant d’abord l’application fournie par notre prestataire, et depuis l’Euro 2024, nous l’avons intégrée dans nos propres applications événementielles ». On peut ajouter que le service est également accessible en dehors du stade, ce qui permet aux personnes suivant le match chez elles d’en bénéficier.
Le service pourrait-il bientôt s’ouvrir à des technologies innovantes, telle l’intelligence artificielle ? Pour l’instance basée à Nyon (Suisse), qui travaille par ailleurs au développement de projets pilotes destinés à soutenir d’autres types de handicaps, il s’agit d’abord de surmonter certaines limites avant d’envisager ce type d’évolution. « Les modèles linguistiques, même bien entraînés, atteignent environ 98 % de précision. Or, les 2 % manquants concernent généralement des éléments cruciaux pour la compréhension du contexte. N’oublions pas que si les spectateurs voyants peuvent utiliser leurs yeux pour combler ces manques, ceux malvoyants dépendent totalement de l’exactitude du commentaire. »
Autre point critique : le décalage entre celui-ci et sa réception dans le stade. « Les modèles linguistiques doivent d’abord entendre la phrase entière pour en comprendre correctement le contexte. Cela peut entraîner un traitement plus long que le décalage actuel à moins de 0,5 seconde, ce qui réduit l’utilité du service. »
Enfin, fait-on remarquer à l’UEFA, « l’un des objectifs du commentaire audiodescriptif est de retranscrire l’atmosphère du stade, les expressions des joueurs, des officiels, etc., et pas uniquement les actions de jeu. Cela nécessiterait un niveau d’intelligence artificielle très avancé, que nous ne pensons pas voir se développer dans un avenir proche. »

Suivre le match… du bout des doigts
De leur côté, constructeurs et prestataires sont déjà au rendez-vous, comme l’allemand Mycrocast, dont l’UEFA a fait son partenaire, l’américain OneCourt, l’irlandais Field of Vision ou, plus spécialement ici, le français Touch2See et le franco-européen GiveVision.
En février 2018, dans une vidéo devenue virale, César Daza, un Colombien, décrivait par le toucher, à l’aide d’une maquette d’un terrain de football, les actions d’un match de la Liga espagnole à son ami non-voyant. « Cette vidéo m’a inspiré et, en mai 2022, suite à des recherches sur les obstacles auxquels font face les déficients visuels pour suivre le sport, j’ai créé Touch2See », raconte Arthur Chazelle.
La solution développée par la start-up toulousaine se présente sous la forme d’une tablette tactile permettant une interaction simple et directe. Objet de plusieurs contrats en France (ASM Clermont-Ferrand, Toulouse Football Club, Fédération Française de Football…) et à l’international (Italie, Portugal…) – avec un service B2B entièrement gratuit pour l’utilisateur –, « notre solution ne nécessite aucune infrastructure particulière ni installation dans les stades : c’est une technologie plug-and-play », vante le fondateur, informaticien de formation.
Conçue pour le milieu sportif, elle s’adresse à l’ensemble des sports collectifs de ballon (football, rugby, basket-ball, handball…) et doit pouvoir être utilisée sans effort par des spectateurs en situation de handicap visuel, sans les distraire de l’expérience du match. « Une interface tactile intuitive, un matériel léger et une prise en main rapide sont essentiels pour que la technologie enrichisse réellement la perception du jeu », souligne Arthur Chazelle.
La solution met en œuvre un Raspberry Pi, des modules de gestion de moteurs et un modem 5G pour la connectivité. « Nous utilisons Python et C++ pour le codage, ainsi qu’Infomaniak pour l’hébergement de notre serveur », ajoute-t-il.
Son fonctionnement s’appuie sur des données sportives en temps réel, transmises par les caméras sur site ou un statisticien, puis traitées par une intelligence artificielle. L’utilisateur suit ainsi, par le toucher, le mouvement du ballon matérialisé par un curseur magnétique sur la surface de la tablette. En parallèle, un flux audio – fourni par des commentateurs, journalistes ou une Web radio – retransmet les descriptions du match via une prise jack. Enfin, des retours haptiques sont intégrés à la solution pour enrichir l’expérience et permettre de mieux ressentir l’intensité du match, par exemple lors d’un hors-jeu ou d’un but. « Cette combinaison d’entrées tactiles et auditives crée une expérience sensorielle complète, améliorant la compréhension et le plaisir des sports pour les personnes malvoyantes », met en avant le jeune entrepreneur.
Pour d’autres sports que le football, plus ou moins délaissés par les caméras de télévision, Touch2See propose une alternative : « Nous pouvons générer manuellement les données. À l’aide d’un iPad représentant le terrain et d’un stylet, un employé du club ou de T2S suit la position du ballon. Les vibrations, elles, sont retranscrites via un raccourci clavier. »
Le jour du match, après un test de connectivité du site, la société dépêche un ou deux collaborateurs et déploie une vingtaine de tablettes avec le matériel associé, parfois davantage. Selon nos informations, elle en aurait ainsi fourni une cinquantaine lors des Jeux de Paris, couvrant sept disciplines olympiques et paralympiques : football, rugby, basket-ball, cécifoot, rugby fauteuil, basket fauteuil et goalball. Si la solution a été développée en interne, « nous avons toutefois bénéficié de programmes d’innovation en collaboration avec des partenaires comme le CEA et Orange, qui nous ont soutenus dans la conception des premières versions », reconnaît Arthur Chazelle.
Aujourd’hui, les dix salariés de Touch2See (dont cinq permanents) travaillent à améliorer la précision des données transmises, à enrichir les fonctionnalités tactiles – par exemple, en simplifiant les boutons – et à faciliter encore le déploiement de la solution sur site. Les avancées rapides en intelligence artificielle ouvrent aussi de nouvelles perspectives. « L’IA pourrait personnaliser l’expérience selon les besoins de chaque utilisateur et analyser en temps réel des situations complexes, comme un ballon sortant du terrain ou un tir lointain dont il est parfois difficile de déterminer avec précision la trajectoire », projette Arthur Chazelle.

Un zoom dans le casque
« Les outils d’agrandissement les plus couramment utilisés à la maison sont des jumelles digitales. Mais elles n’offrent ni un champ de vision suffisant ni une vitesse d’ajustement du zoom adaptée pour suivre un match dans un stade. Nous sommes les seuls à proposer une expérience visuelle aux spectateurs malvoyants », revendique Élodie Draperi.
Associée au Lituanien Stan Karpenko et au Polonais Piotr Imielski, la Française a cofondé GiveVision, dont elle est aujourd’hui le CEO, avant que des investisseurs seed-round (la Ville de Birmingham et Ascension Venture) ne viennent soutenir la croissance de l’entreprise. Celle-ci compte désormais six salariés permanents et possède des bureaux en Angleterre, en France et au Canada.
Dès sa création en 2014, GiveVision a développé une approche centrée sur l’utilisateur. Des centaines de personnes malvoyantes ont été impliquées dans le développement de son casque « basse vision » grâce à des méthodologies variées (observations in situ, analyses comparatives de solutions existantes, groupes de discussion…). En 2022, l’entreprise a ainsi validé un modèle économique B2B, garantissant que son produit soit à la fois utile et performant pour une utilisation dans les enceintes sportives.
« Nous avons identifié un besoin réel chez les spectateurs malvoyants en raison des distances, spécialement dans les stades, et de la rapidité des actions. Ces difficultés limitent fortement leur participation. Comme le montre une étude que nous avons menée avec l’Union nationale des aveugles et déficients visuels (Unadev) en 2023, 73 % des sondés ne se rendent plus, ou rarement, à des événements sportifs », explique Élodie Draperi. Le casque, proche esthétiquement d’un modèle de réalité virtuelle, offre un champ de vision élargi et un contrôle de luminosité. « Ce n’est pas l’équipement le plus discret, mais il reste confortable pour un usage prolongé », justifie la responsable.
Deux modes de visionnage sont proposés : un mode « jumelles », en réalité augmentée, qui permet de zoomer sur l’action en direct, et un mode « télé ». Grâce à un câble SDI connecté à un boîtier installé sur site et spécialement développé en interne pour ce cas d’usage, le second permet de capter le flux vidéo de l’événement ou celui retransmis sur les écrans géants du stade. À l’aide d’une petite télécommande portée autour du cou, l’utilisateur peut ajuster l’image en zoomant, changeant la luminosité et les contrastes, quel que soit le mode, et passer de l’un à l’autre en un clic. « L’avantage du mode “télé” est que les caméras suivent déjà l’action et proposent des plans rapprochés, ce qui réduit la fatigue visuelle par rapport au fait de zoomer et dézoomer constamment. Les retours d’expérience montrent que la majorité des bénéficiaires alternent les deux : zoomer sur un joueur avec le mode “jumelles”, puis regarder un ralenti en mode “télé” », expose Élodie Draperi.

L’entreprise travaille aussi à réduire la latence en deçà de la seconde, via une connexion 4G privée ou, idéalement, 5G, pour éviter les interférences. « Si cette dernière est proposée et que nous pouvons utiliser une bande passante de 100 MHz en mode Stand Alone, avec un débit constant plafonné à 10 Mb/s, les bénéficiaires peuvent s’installer n’importe où dans le stade. »
Côté produit, l’intelligence artificielle pourrait enrichir l’expérience utilisateur et inspirer le développement d’une fonctionnalité descriptive, à la manière de Seeing AI de Microsoft, un ajustement du zoom et des réglages d’image automatiques selon les habitudes de visionnage des bénéficiaires.
La dernière amélioration en date concerne l’application de contrôle de gestion des casques, qui permet un suivi individualisé de l’usage et une assistance à distance. Le dispositif reste évolutif et, selon les opportunités technologiques ou les partenariats, GiveVison projette d’autres améliorations, comme l’intégration de commandes directement dans le casque, la création de contenus spécifiques aux événements, voire l’utilisation de lunettes électroniques. Les jumelles digitales, en revanche, sont écartées pour des raisons d’ergonomie et de performance.
Dans un stade où vingt casques sont mis à disposition, le coût moyen du service – pris en charge par le gestionnaire du site, l’organisateur de l’événement ou un sponsor, et gratuit pour les utilisateurs – s’établit actuellement à 30 000 euros par saison.
À ce jour, la solution a été déployée dans plus d’une trentaine de stades et arénas, de façon temporaire ou pérenne (stade de Crystal Palace à Londres, Accor Arena et Adidas Arena à Paris). « Depuis 2023, nos installations se concentrent surtout en Angleterre (tournoi de Wimbledon, matches pilotes à Liverpool et Chelsea…), en France, avec notamment Paris Entertainment, et aux États-Unis », détaille Élodie Draperi. D’autres projets, au moins quatre, sont en cours de discussion.
*À chaque rentrée, des enfants autistes de familles françaises sont ainsi accueillis dans des écoles belges.
Article paru pour la première fois dans Mediakwest #64, p.56-59
