Démonstration du projet GVLEX

Le but du projet ANR GVLEX est de doter le robot NAO et l’agent virtuel Greta de la capacité de lire une histoire avec une voix et des gestes expressifs, pendant plusieurs minutes, sans provoquer la lassitude de l’auditeur.

Dans ce projet, le système proposé prend en entrée un texte qui sera dit par l’agent. Le texte est enrichi d’informations sur la manière dont le texte devrait être communiqué (i.e. quelles actions communicatives il faut exprimer). Le moteur de comportements du système sélectionne des comportements multimodaux à réaliser. Les comportements verbaux et non-verbaux sont ensuite synchronisés. Alors que d’autres partenaires du projet travaillent sur l’expressivité de la voix, notre travail se concentre sur l‘expressivité des comportements non-verbaux, et en particulier sur les gestes.


Details:

Le, Q.A. and Pelachaud, C. Expressive Gesture Model for Humanoid Robot. International Conference of the HUMAINE Association on Affective Computing and Intelligent Interaction (ACII2011), Memphis, Tennessee, USA on October 9th to 12th, 2011.

Le Q.A., Catherine Pelachaud. Generating co-speech gestures for the humanoid robot NAO through BML. GW 2011: The 9th International Gesture Workshop. Gesture in Embodied Communication and Human-Computer Interaction, May 25-27, 2011, Athens, Greece.

Leave a Reply

You can use these HTML tags

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>