Projets:Com'Eyes

De wikilab
Com'Eyes.jpg

Description du projet

Projet Com'Eyes

Charlotte souffre d'une pathologie ne lui permettant de bouger uniquement ses yeux. Ses parents ont découvert le Humanlab Saint-Pierre par l'intermédiaire de Marie-Jo Gaillard, son orthophoniste à l'Institut Saint-Pierre.


Le besoin: trouver un moyen de communiquer, dire où elle a mal, répondre oui ou non, mais aussi un moyen de s'amuser avec un peu plus d'autonomie, tout en fournissant un moyen de rééducation à son orthophoniste.


Problème: seule solution existante et disponible commercialement trop coûteuse (>10000 €).

solution? Grâce à l'utilisation d'un capteur de suivi oculaire destiné à la base aux jeux vidéo et au développement d'une application dédiée sous Windows utilisant ce capteur.


L'application Com'Eyes développée dans le cadre du projet de fin d'études d'Ines et Anissa à Polytech Montpellier permet de créer des diaporamas où Charlotte peut fixer des images et déclencher une action en la fixant (ex: fixer un émoticône content, fixer une zone du corps où elle a mal, fixer une note de piano et déclencher le son, fixer la photo de sa sœur et déclencher la synthèse vocale prononçant son prénom...)

Cahier des charges

Trouver un moyen :

- pour Charlotte de communiquer en utilisant son regard.

- de fournir à ses parents une solution récréative et ludique pour qu'elle puisse jouer en autonomie.

- de fournir à son orthophoniste un moyen de rééducation.

DSC00013.jpg


Contraintes :

- solution accessible financièrement

- utilisable à la fois par les parents, par le soignant et par le porteur de projet (i.e. Charlotte).

- peut être embarqué sur son fauteuil roulant (solution mobile) ou bien installer en fixe.

- doit être évolutif et personnalisable.


Comment ?

- en utilisant un capteur Tobii Eye Tracker 4C de suivi oculaire destiné aux jeux-vidéo.

- en programmant un logiciel permettant de récupérer l'info de suivi oculaire et de l'utiliser pour déclencher des actions.

- le logiciel est constitué de diaporamas où l'utilisateur peut charger des images, les classer par thêmes, choisir l'action engendrée par la fixation de l'image : jouer un son, faire prononcer une phrase à l'ordinateur, animer l'image (.gif)...etc

Analyse de l'existant

  1. Cette recherche a poursuivi la conceptualisation, la mise en œuvre et les tests d'un système qui permet de contrôler le curseur de l'ordinateur sans nécessiter de mouvement de la main. Les groupes d'utilisateurs cible de ce système sont les personnes qui ne peuvent pas utiliser leurs mains en raison d'un dysfonctionnement de la colonne vertébrale ou d'autres affections. Les entrées du système étaient constituées de signaux d'électromyogramme (EMG) provenant de muscles du visage et de coordonnées du point de vue produites par un système de suivi du regard (EGT). Chaque entrée a été traitée par un algorithme qui a produit ses propres informations de mise à jour du curseur. Cette solution compliqué à mettre en place et cette solution n'est pas précise comparée au eye traking.
  2. Le modèle I-15+ est un terminal de communication mobile et résistant créé pour offrir une communication efficace : synthèse vocale, contrôle de l'environnement, accès à l'ordinateur... Sa conception robuste, son outil de gestion de l'alimentation et les différents modes de commande disponibles, tactile ou oculaire, font du I-15+ la solution idéale de ceux qui comptent sur la communication alternative améliorée mais le coût de cette solution très fiable est élevé.
  3. Lien pour les deux autres solution: https://www.rehab.research.va.gov/jour/08/45/1/pdf/Chin.pdf https://www.tobiidynavox.com/fr/devices/commandes-oculaires/i-15-communicator/

Equipe (Porteur de projet et contributeurs)

  • Porteurs du projet : Charlotte et ses parents.
  • Concepteurs/contributeurs : Inès Missoum Benziane et Anissa Lamhaouar (Etudiantes Polytech Montpellier)
  • Animateur (coordinateur du projet): Benoît Sijobert et Marie-Jo Gaillard (Orthophoniste Institut Saint-Pierre)
  • Fabmanager référent: Benoît Sijobert
  • Responsable de documentation: Erwan Ollive (wiki) et Inès Missoum Benziane & Anissa Lamhaouar (doc technique, utilisateur et documentation code)

Matériel nécessaire

Capteur Tobii Eye Tracker 4C

https://www.amazon.fr/TOBII-Tracker-Informatique-Suivant-Regard/dp/B01MAWPMXQ

Pour utiliser cette application il faut un Pc hybride (tactile) où une tablette, on peu utilisé aussi un Pc classique en utilisant la souris.

https://www.lenovo.com/fr/fr/laptops/yoga/yoga-c-series/Lenovo-Yoga-C740-15/p/88YGC701293

Le système d'exploitation doit être uniquement sous Windows 10

Coût

Coût du Tobii Eye Tracker 4c: 169 €

Coût du Lenovo Yoga C740-15: 1099,00 €

Fichiers source

File:guide d'utilisation.pdf

File:x64-20200608T130328Z-001.zip

File:x86-20200608T130357Z-001.zip

File:Rapport de Synthèse - LAMHAOUAR-MISSOUM.pdf

File:Rapport Technique -LAMHAOUAR-MISSOUM.pdf



DSC00019.jpg