Détection d’émotions dans la voix de patients en interaction avec un agent conversationnel animé (Emotions detection in the voice of patients interacting with an animated conversational agent) [in French]

Le projet français ANR ARMEN a pour objectif de construire un robot assistant pour les personnes âgées et handicapées. L’interaction avec le robot est réalisée avec un agent conversationnel animé (ACA), le robot est une plateforme mobile. Ce travail se concentre sur la construction du module de détection d'émotions du système robotique. A cette fin, des données ont été collectées auprès de 77 patients de plusieurs centres médicaux. L'interaction avec les sujets était presque entièrement conduite de manière naturelle en parlant avec l'agent virtuel. La difficulté spécifique de ce projet réside dans la grande variété de voix (âgées, dégradées) et de comportement affectif des utilisateurs. Nos premiers résultats montrent un score de 46% de bonne détection sur quatre classes émotionnelles (Colère, Joie, Tristesse, Neutre). Nous analysons ces scores selon l'âge et la qualité vocale.

[1]  R. Fetter,et al.  Case mix definition by diagnosis-related groups. , 1980, Medical care.

[2]  R. D. Schraft,et al.  Robotic home assistant Care-O-bot II , 2002, Proceedings of the Second Joint 24th Annual Conference and the Annual Fall Meeting of the Biomedical Engineering Society] [Engineering in Medicine and Biology.

[3]  Zhihong Zeng,et al.  A Survey of Affect Recognition Methods: Audio, Visual, and Spontaneous Expressions , 2007, IEEE Transactions on Pattern Analysis and Machine Intelligence.

[4]  Björn W. Schuller,et al.  OpenEAR — Introducing the munich open-source emotion and affect recognition toolkit , 2009, 2009 3rd International Conference on Affective Computing and Intelligent Interaction and Workshops.

[5]  Björn Schuller,et al.  Towards measuring similarity between emotional corpora , 2010 .

[6]  J. Cassell,et al.  More Than Just Another Pretty Face: Embodied Conversational Interface Agents , 1999 .

[7]  D. Feil-Seifer,et al.  Defining socially assistive robotics , 2005, 9th International Conference on Rehabilitation Robotics, 2005. ICORR 2005..

[8]  Timothy W. Bickmore,et al.  'It's just like you talk to a friend' relational agents for older adults , 2005, Interact. Comput..

[9]  L. Devillers,et al.  Use of nonverbal speech cues in social interaction between human and robot: emotional and interactional markers , 2010, AFFINE '10.

[10]  Björn W. Schuller,et al.  The INTERSPEECH 2009 emotion challenge , 2009, INTERSPEECH.

[11]  Aude Billard,et al.  Robotic assistants in therapy and education of children with autism: can a small humanoid robot help encourage social interaction skills? , 2005, Universal Access in the Information Society.

[12]  Dirk Heylen,et al.  Towards responsive Sensitive Artificial Listeners , 2008 .

[13]  Stefan Kopp,et al.  The Behavior Markup Language: Recent Developments and Challenges , 2007, IVA.