Emoface, une application grenobloise pour apprendre aux autistes des émotions complexes

sep article



FIL INFO – L’application Emoface développée par des chercheurs grenoblois du Gipsa-Lab et de l’Inria permet aux enfants autistes d’apprendre à décoder et exprimer des émotions complexes. Testée avec succès par plusieurs associations et structures médico-sociales, elle a été présentée le 15 mai dernier au Forum 5i à Grenoble.

 

 

En France, un enfant sur cent-cin­quante naît actuel­le­ment avec un trouble du spectre autis­tique (TSA)*. Un han­di­cap qui per­met seule­ment d’ap­prendre rela­ti­ve­ment faci­le­ment à per­ce­voir, recon­naître et expri­mer les six émo­tions de base : la joie, la colère, la peur, la tris­tesse, la sur­prise et le dégoût. « Mais on estime qu’il y a 412 formes d’é­mo­tions sociales  », sou­ligne Gérard Bailly, direc­teur de recherche au Laboratoire Grenoble images parole signal auto­ma­tique (Gipsa-Lab)**. Comment les per­ce­voir ? Comment les expri­mer ?

 

L'application Emoface développée par des chercheurs grenoblois du Gipsa-Lab et de l’Inria permet aux enfants autistes d’apprendre des émotions complexes.© Gipsa-Lab

© Gipsa-Lab

 

Pour aider les jeunes autistes, des cher­cheurs du Gipsa-Lab et de l’Institut natio­nal de recherche dédié aux sciences du numé­rique (Inria) ont déve­loppé l’ap­pli­ca­tion pour tablette tac­tile nom­mée Emoface. Testée avec suc­cès par plu­sieurs asso­cia­tions et struc­tures médico-sociales, ce logi­ciel per­met aux enfants autistes d’apprendre à déco­der et à expri­mer des émo­tions dites com­plexes.

 

Après sa matu­ra­tion au Gipsa-Lab, le pro­jet Emoface incube à pré­sent au sein de la société gre­no­bloise d’ac­cé­lé­ra­tion du trans­fert de tech­no­lo­gies (Satt) Linksium. Présentée le 15 mai der­nier au Forum 5i à Grenoble, aux côtés d’autres pro­jets de recherche régio­naux, l’ap­pli­ca­tion sera com­mer­cia­li­sée en 2020.

 

 

Des avatars pour minimiser le jugement social, inhérent aux coachs humains

 

Avec Emoface, l’u­ti­li­sa­teur réa­lise des acti­vi­tés ludiques au moyen d’ava­tars 3D capables de repro­duire des émo­tions com­plexes. Telles que la ten­dresse, la séduc­tion, l’ironie ou encore la gêne. « L’un des avan­tages de ces ava­tars est de mini­mi­ser le juge­ment social, inhé­rent aux coachs humains », explique Gérard Bailly. Avec son équipe, ce der­nier tra­vaille aussi sur cette pro­blé­ma­tique au moyen de robots huma­noïdes.

 

© Gipsa-Lab

© Gipsa-Lab

 

L’animation de l’a­va­tar repose sur « une tech­no­lo­gie inno­vante de géné­ra­tion d’a­ni­ma­tions émo­tion­nelles » créée par Gipsa-lab. Dans les grandes lignes ? À par­tir de don­nées enre­gis­trées, un algo­rithme génère un éven­tail d’animations émo­tion­nelles. « On uti­lise des réseaux neu­ro­naux pour géné­rer l’en­semble des para­mètres d’a­ni­ma­tion d’un per­son­nage 3D. » Lesquels ? « Les mou­ve­ments de la tête, expres­sions faciales, direc­tion du regard, ton de la voix », pré­cisent les scien­ti­fiques.

 

 

Emoface propose quatre activités ludiques

 

Mieux, les tech­no­logues sont par­ve­nus à modu­ler l’ex­pres­sion émo­tion­nelle. « Ce qui sup­pose de modi­fier la ges­tuelle et l’in­to­na­tion de la voix en fonc­tion d’une situa­tion », expliquent les cher­cheurs. En l’oc­cur­rence, de prendre conscience de ce qui se passe : « Suis-je seule concerné.e ? Le contexte de l’interaction est-il intime ou public ? Est-ce sar­cas­tique ? », citent-ils à titre d’exemple.

 

L'application Emoface permet aux enfants autistes d’apprendre des émotions complexes.© Gipsa-Lab

© Gipsa-Lab

En pra­tique, l’ap­pli­ca­tion Emoface pro­pose quatre acti­vi­tés ludiques dif­fé­rentes : apprendre les expres­sions en contrô­lant le visage de l’a­va­tar, recon­naître les émo­tions en inter­agis­sant avec des ava­tars ani­més, pro­duire des expres­sions faciales en contrô­lant un ava­tar et simu­ler une situa­tion de la vie réelle. Sans doute l’ac­ti­vité la plus com­pli­quée.

 

 

« Cette technologie pourrait à terme être aussi utilisée pour d’autres pathologies »

 

Pour évi­ter la mono­to­nie et apprendre à déco­der l’émotion dans dif­fé­rentes contextes, l’apparence de l’avatar (cou­leur des che­veux, yeux, visage) ainsi que le contexte (bou­lan­ge­rie, bou­che­rie, etc.) changent. L’intelligence arti­fi­cielle (IA) per­met aussi de varier l’intensité de l’expression de l’avatar. Et ce, de manière pro­gres­sive.

 

« Cette tech­no­lo­gie pour­rait à terme être aussi uti­li­sée pour d’autres patho­lo­gies pré­sen­tant des défi­cits de cog­ni­tion sociale : schi­zo­phré­nie, syn­drome de Parkinson, mala­die d’Alzheimer », augurent les experts.

 

VM

 

 

* En France, près de 700 000 per­sonnes sont atteintes de Troubles du spectre de l’au­tisme (TSA), selon l’institut natio­nal de la santé et de la recherche médi­cale (Inserm). Le prin­ci­pal déno­mi­na­teur com­mun à ces troubles ? Des alté­ra­tions dans la capa­cité à éta­blir des inter­ac­tions sociales et à com­mu­ni­quer. Que ce soit par le lan­gage ou la com­mu­ni­ca­tion non ver­bale.

 

** CNRS-Grenoble INP-Université Grenoble Alpes

 

Aides aux commerçants
commentez lire les commentaires
2444 visites | 0 réaction
logos commentaires logos commentaires

Commentez ou réagissez

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Votre commentaire sera publié dans les plus brefs délais, après modération.