Soutenance de thèse - Mme Manel LETAIEF

Le Bureau des Études Doctorales a le plaisir de vous informer que

Madame Manel LETAIEF

Doctorante au laboratoire HANDIBIO (EA 4322),

Sous la co-direction de

Monsieur Philippe GORCE, Professeur des Universités, Université de Toulon

&

Monsieur Nasser REZZOUG, Maître de Conférences HDR, Université de Toulon,

soutiendra publiquement sa thèse en vue de l’obtention du Doctorat en Automatique, Signal, Productique, Robotique,

Spécialité : Ingénierie des handicaps et biomécanique

sur le thème suivant :

« Commande de fauteuil roulant électrique par données vocales et visuelles »

le jeudi 20 décembre 2018 à 14h00,

à l’Université de Toulon – Campus de La Garde – Bâtiment Y1 – Amphi Y1.012

devant un jury composé de :

Philippe PUDLO, Professeur, Université Polytechnique des Hauts de France, Rapporteur

Mounir SAYADI, Professeur, Université de Tunis, ENSIT, Rapporteur

Nadine VIGOUROUX , Chargée de Recherche CR1, Université Paul Sabatier, Examinatrice

Brice ISABLEU, Professeur, Université Aix Marseille, Examinateur

Philippe GORCE, Professeur, Université de Toulon, Co-directeur

Nasser REZZOUG, MCF HDR, Université de Toulon, Co-directeur

Résumés :

Un pourcentage non négligeable de personnes à mobilité réduite se déplaçant en fauteuil roulant électrique éprouve de grandes difficultés à utiliser un joystick du fait de troubles moteurs sévères justifiant ainsi la proposition de modes de contrôle alternatifs.

Dans ce cadre, l’objectif de cette thèse a été de contribuer à la conception, au développement et à la validation d’un système multimodal de commande pour les fauteuils roulants électriques dans lequel le niveau de déficience motrice de chaque personne est pris en compte tout en respectant les contraintes de sécurité. Notre démarche a été de développer des fonctionnalités qui permettent de proposer à l’utilisateur plusieurs modes de commande (manuelle, visuelle et vocale).

Dans le cadre de la commande vocale, une étude comparative de la performance des différents algorithmes d’extraction et de classification d’un signal vocale dans des environnements bruités a été menée afin de déterminer la meilleure combinaison pour l’identification de l’utilisateur et des commandes tenant ainsi compte d’impératifs de sécurité. Elle s’appuie sur une étude expérimentale intégrant 5 commandes, 20 locuteurs, 2 conditions de distances et 2 conditions de bruit environnant.

La seconde contribution a consisté à développer un système de navigation doté d’un joystick visuel utilisant une capture de la direction du regard. Cette nouvelle interface et les commandes associées ont été validées de manière originale dans le cadre d’une expérimentation qui nous a permis de comparer les caractéristiques de la commande par le regard et par joystick. Celle-ci a consisté à enregistrer et caractériser le comportement des sujets à l’aide de variables issues de l’analyse du mouvement du fauteuil et de l’utilisation des commandes émises par l’utilisateur lors d’une tâche complexe de franchissement d’un passage étroit. En particulier, nous avons montré la faisabilité d’une telle commande et que la proposition de commandes mixtes rend la navigation plus naturelle par rapport aux interfaces classiques.

Mot clés :

Fauteuil Roulant, commande visuelle, analyse des mouvements, passage de porte, navigation, extraction des paramètres, classification

Electric wheelchair control using vocal and visual data

A significant percentage of people with reduced mobility have great difficulty navigating in electric wheelchairs using a joystick due to severe motor disorders, thus justifying the proposal of alternative control modes.

In this context, the aim of this thesis was to contribute to the design, development and validation of a multimodal control system for electric wheelchairs in which the level of motor disability of each person is taken into account while respecting safety constraints. Our approach was to develop functionalities that allow us to offer the user several control modes (manual, visual and vocal).

As part of the voice command, a comparative study of the performance of the different algorithms for extracting and classifying a voice signal in noisy environments was conducted to determine the best combination for user identification and commands, taking into account safety requirements. It is based on an experimental study integrating 5 commands, 20 speakers, 2 distance conditions and 2 noise conditions.

The second contribution consisted in developing a navigation system with a visual joystick using the direction of the gaze. This new interface and the associated controls were validated in an original way as part of an experiment that allowed us to compare the characteristics of the control by the gaze and by joystick. This consisted in recording and characterizing the subjects’ behaviour using variables issued from the analysis of the movement of the chair and the use of commands issued by the user during a complex task of crossing a narrow passage. In particular, we have shown the feasibility of such control and that the proposal for mixed commands makes navigation more natural than traditional interfaces.

Keywords :

Electric wheelchair, gaze-based control, navigation, door crossing, movement analysis, feature extraction, classification, noisy environments.