Lorsque les personnes aveugles ou malvoyantes essaient de se déplacer dans une ville comme Paris, elles peuvent facilement se perdre à la minute où elles sortent d’une station de métro.

Deux jeunes étudiants français en ingénierie s’efforcent de résoudre ce problème en développant une application de navigation en réalité augmentée (RA) qui identifie l’itinéraire le plus pratique pour eux et utilise le “son spatial” – également appelé son 3D – pour les guider dans la bonne direction.

“Nous essayons de faire quelque chose de très simple où vous obtenez le son 3D dans la bonne direction. Vous vous tournez dans la direction d’où vient le son, et vous êtes prêt à partir”, a déclaré Nathan Daix, cofondateur et PDG de SonarVision, à Euronews Next.

L’appli est actuellement en cours de développement et de test, mais la jeune start-up a pour objectif de la rendre disponible en 2023. Le prototype fonctionne à Paris mais peut “assez facilement” être déployé dans d’autres grandes capitales européennes, a-t-il précisé.

Il existe déjà des applications qui alertent l’utilisateur des points d’intérêt environnants, comme Blindsquare et Soundscape, mais la valeur ajoutée de SonarVision est de guider les utilisateurs d’un point A à un point B, comme un “GPS de très haute précision” qui est également très intuitif.

Les applications d’orientation traditionnelles telles que Google Maps et Apple Maps n’ont pas été conçues pour répondre aux besoins des personnes malvoyantes et sont difficiles à utiliser avec des lecteurs d’écran, a-t-il ajouté.

“L’un des problèmes très frustrants de beaucoup de ces produits est la précision”, a expliqué M. Daix.

“Dans les villes, le GPS peut avoir une précision de 4 à 5 mètres dans les bons moments. Mais dans les pires moments, ce qui représente au moins 30 pour cent du temps, vous obtenez une imprécision de plus de 10 mètres.

“Cela signifie que le GPS vous indique que vous êtes arrivé à votre arrêt de bus, mais que vous êtes en fait de l’autre côté de la rue, et que vous devez encore trouver un moyen de vous rendre à votre arrêt de bus réel et que vous n’avez aucune idée de l’endroit où il se trouve”.

Scanner les bâtiments et les rues de la ville

Pour résoudre ce problème, SonarVision utilise l’appareil photo du téléphone pour scanner les bâtiments à l’aide de la technologie AR et les compare à la base de données Apple de bâtiments scannés pour une ville donnée.

“Cela nous permet de géolocaliser nos utilisateurs avec une précision allant de 20 centimètres à un mètre”, a déclaré Daix, ajoutant que cela permettait à l’application de garder l’utilisateur sur les passages et les trottoirs tout en évitant, dans la mesure du possible, les escaliers et les zones de construction.

Pour que la technologie fonctionne, il suffit à l’utilisateur d’un casque et d’un iPhone avec une caméra pointée sur la route – bien qu’à l’avenir, la caméra pourrait faire partie de lunettes AR pour plus de commodité.

“Votre téléphone serait dans votre poche et vous auriez les lunettes sur votre visage pour la partie visuelle et le son 3D sortant des branches”, a déclaré M. Daix.

Pas de remplacement pour une canne blanche

Cependant, l’application ne fait pas de détection d’obstacles en temps réel et n’est conçue que comme un “complément” à la canne blanche, au chien-guide ou à d’autres dispositifs que les personnes malvoyantes utilisent pour se déplacer.

La technologie pour y parvenir existe pourtant : La technologie LiDAR, ou détection et télémétrie par la lumière, a le potentiel de “vraiment aider les personnes malvoyantes”, a-t-il déclaré.

“Ce qu’elle permet de faire, c’est de scanner la profondeur dans l’environnement. Nous avons en fait commencé à travailler avec LiDAR sur un iPhone 12 Pro et nous avons pu développer un prototype qui remplace essentiellement la canne blanche.

“Cela nous permet de détecter les obstacles, mais pas seulement les obstacles au sol – les obstacles qui sont au niveau de la tête, au niveau du corps…. C’est quelque chose de très puissant”.

La principale raison pour laquelle SonarVision ne se concentre pas sur l’utilisation de LiDAR pour le moment, a déclaré Daix, est que les smartphones qui en sont dotés (comme l’iPhone 12 Pro) sont chers et que SonarVision vise à rendre sa technologie aussi accessible que possible.

“Aujourd’hui, la fonctionnalité la plus importante sur laquelle nous pouvons travailler est l’orientation – une orientation précise et abordable est vraiment l’un des plus grands problèmes qui n’a pas encore été résolu pour les personnes ayant une déficience visuelle”, a-t-il déclaré.