Le projet SAM-Guide

Spatial Awareness from Multimodal Guidance 

L'acronyme SAM Guide vient de Spatial Awareness from Multimodal Guidance

Nos objectifs

Autonomie Spatiale

Le cœur du projet SAM-Guide est de favoriser l'autonomie des personnes aveugles ou malvoyantes dans leurs interactions avec l’espace. Qu’il s’agisse de se déplacer dans un bâtiment, de retrouver un objet ou de pratiquer une activité physique, la perte de vision rend ces tâches complexes et parfois impossibles sans assistance. L’objectif est donc de développer des outils sensoriels intuitifs qui permettent à l’utilisateur de s’orienter, de se repérer et d’interagir avec son environnement sans dépendre d’une aide humaine ou d’un guidage visuel. Ces outils doivent leur offrir la liberté de se déplacer et d'agir de manière sécurisée, fluide, et autonome.

Transcodage Sensoriel

Une des ambitions majeures de SAM-Guide est de concevoir un langage sensoriel universel, capable de convertir les informations spatiales — habituellement transmises par la vision — en signaux tactiles et auditifs. Ce processus, appelé transcodage sensoriel, repose sur des principes issus des neurosciences, de la cognition spatiale et de l’ergonomie. Il s'agit de transmettre uniquement les informations essentielles, de manière intelligible et intuitive, tout en respectant les limites cognitives de l’utilisateur. L'objectif est de créer un système cohérent et modulaire, utilisable dans différentes situations et adaptable à diverses interfaces (ceinture, casque, etc.).

Technologies inclusives

SAM-Guide vise à concevoir des technologies réellement accessibles, pensées pour s’adapter aux besoins spécifiques des personnes aveugles ou malvoyantes. Le projet privilégie une approche inclusive : les dispositifs développés sont légers, portables, compatibles avec les déplacements urbains ou les activités sportives, et ne nécessitent pas un apprentissage complexe. L’idée est de sortir de la logique de substitution totale de la vision, pour proposer au contraire des outils concrets, simples, et facilement intégrables dans le quotidien. En améliorant leur accessibilité à des contextes variés, ces technologies participent à une société plus juste et inclusive.


Notre approche scientifique

  • Étudier la perception spatiale
  • Créer un langage sensoriel
  • Tester en réalité augmentée
  • Appliquer en conditions réelles
Comprendre - Étape 1
Modéliser - Étape 2
Expérimenter - Étape 3
Transposer - Étape 4

Les technologies mobilisées

Ceinture Tactile

La ceinture vibratoire est un dispositif porté autour de la taille (voir images au dessus), équipé de plusieurs moteurs vibrants positionnés tout autour du corps. Chaque vibration est utilisée pour transmettre une information directionnelle : par exemple, une vibration à droite indique une direction vers la droite. Ce dispositif permet aux utilisateurs d’anticiper un virage ou de s’aligner sur un chemin, même en l’absence d’un repère visuel. L’usage de la ceinture permet de garder les mains libres et réduit la charge attentionnelle, ce qui la rend particulièrement utile dans les situations où la sécurité est primordiale.

Ceinture Tactile

Guidage Sonore

SAM-Guide intègre une palette de signaux sonores complémentaires. Les sons spatialisés, produits à l’aide de traitements audio binauraux, permettent à l’utilisateur de localiser dans l’espace une cible ou un point de repère, en percevant le son comme venant d’une direction précise. Les sons non-spatialisés, plus neutres, servent à transmettre des informations comme des alertes, des retours d'action ou des consignes. Cette complémentarité enrichit l’expérience de navigation et facilite l’adaptation à différents environnements, qu’ils soient calmes ou dynamiques.

Femme portant un casque, représentant le son spatialisé

Systèmes de capture et réalité augmentée

Pour concevoir et tester les technologies, le projet utilise des environnements numériques enrichis et ajustés en temps réel à l’aide de systèmes de capture de mouvement. Cela permet de simuler des espaces complexes dans lesquels les utilisateurs peuvent être guidés et orientés grâce à des signaux sensoriels. La réalité augmentée permet de modéliser précisément l’environnement, de détecter les interactions, et d’adapter les signaux aux mouvements et à l’attention de l’utilisateur, afin d’optimiser la fluidité d’usage et de personnalisation.

Capture au sein de la réalité augmentée

L’avancée du projet

2021 - Année
Lancement du projet SAM-Guide, financé par l’ANR, pour une durée de 48 mois.
Création du consortium pluridisciplinaire, réunissant chercheurs en neurosciences, ingénierie, informatique et ergonomie.
Définition des objectifs scientifiques, centrés sur le transcodage sensoriel et l’interaction spatiale sans vision.
2022 - Année
Premiers échanges en présentiel, avec le kick-off meeting à l’École Polytechnique.
Modélisation théorique du système de beacons 3D, base du langage spatial développé dans le projet.
Préparation des plateformes expérimentales en réalité augmentée et capture de mouvement.
2023 - Année
Développement des premiers prototypes de ceinture tactile et de sons spatialisés.
Premiers tests utilisateurs en environnement AR, pour évaluer la perception et la navigation.
Recrutements stratégiques (doctorants et ingénieurs) pour renforcer les équipes de Rouen, Caen et Grenoble.
2024 - Année
Validation des scénarios combinés : navigation, localisation d’objet, interaction dynamique.
Intégration de nouveaux algorithmes pour la détection de lignes, d’obstacles et la fusion de données.
Expérimentation sur des cas concrets, notamment via l’activité Laser-Run adaptée.
2025 - Année
Finalisation des dispositifs et protocoles pour un usage en conditions réelles.
Dissémination et valorisation scientifique à travers publications et open source.
Exploration de nouvelles applications dans la mobilité, le sport et l’accessibilité urbaine.

Les Applications Pratiques

Illustration d'une personne non voyante avec aide, représentant l'Entraînement à la mobilité

Entraînement à la mobilité

Les dispositifs développés dans SAM-Guide peuvent être intégrés à des parcours de formation ou de rééducation, afin d’aider les personnes aveugles ou malvoyantes à apprendre ou renforcer leur capacité à se déplacer de manière autonome, aussi bien en intérieur qu’en extérieur.

Chercheuse utilisant un pistolet sur cible, représentant le Laser-Run

Laser-Run

Le Laser-Run adapté est une application concrète du projet SAM-Guide. Il propose une mise en situation ludique et immersive pour tester les dispositifs dans un contexte dynamique. Grâce aux retours tactiles et aux sons (à la fois spatialisés pour l’orientation, et non-spatialisés pour les consignes ou alertes), les participants peuvent s’orienter, viser et se déplacer sans utiliser la vue. Ce format sportif permet d’évaluer l’efficacité des dispositifs dans des conditions proches de la réalité, tout en mettant en valeur leur potentiel inclusif.

Illustration d'une personne non voyante qui navigue en ville, représentant la Navigation urbaine

Navigation urbaine assistée

À plus long terme, ces technologies pourront être adaptées à des systèmes de guidage pour la navigation en ville ou dans des lieux complexes (gares, hôpitaux, centres commerciaux), afin de renforcer l’autonomie au quotidien dans des environnements vastes et denses.

Découvrir notre jeu interactif

Publications scientifiques

Voir la liste : https://anr.hal.science/search/index/?q=%anrProjectReference_s:ANR-21-CE33-0011 (s'ouvre dans un nouvel onglet)

Posters