Un robot exprimant une plus grande gamme d'émotions
L’affection du Japon pour les robots n’est pas un secret pour personne. Mais le sentiment est-il réciproque dans les androïdes de ce pays? Nous pouvons maintenant faire un pas de plus pour donner aux robots de plus grandes gammes d’expressions faciales pour communiquer avec les humains.
Pour communiquer avec les humains
Alors que les robots ont fait partie des avancées dans les domaines de la santé, de l’industrie et d’autres contextes au Japon, reproduire les expressions des humains dans un visage robotique reste un défi difficile à surmonter. Bien que leurs fonctionnalités aient été améliorées, les expressions faciales des robots n’ont jamais été examinées en détail.
Cela est dû à des facteurs tels que l’énorme gamme et l’asymétrie des mouvements du visage humain, les restrictions des matériaux utilisés dans la peau des androïdes, et bien sûr l’ingénierie complexe et les mathématiques conduisant à des mouvements plus naturels.
Un trio de chercheurs de l’Université d’Osaka a maintenant trouvé une méthode pour identifier et évaluer quantitativement les mouvements faciaux sur leur tête d’un enfant robot. Nommé Affetto, ce modèle de première génération d’androïdes a été rapporté dans une publication de 2011. Les chercheurs ont maintenant trouvé un système pour produire une deuxième génération d’Affetto plus expressif.
Leurs découvertes offrent un chemin aux androïdes pour exprimer de plus grandes gammes d’émotions, pour avoir finalement une interaction plus profonde avec les humains.
« Les déformations à la surface sont un problème clé dans le contrôle des visages des robots », explique Minoru Asada, coauteur de cette recherche. « Les mouvements de leur peau faciale créent une forme d’instabilité sur la peau artificielle, et c’est un gros problème du matériel avec lequel nous sommes confrontés. Nous avons cherché une meilleure façon de mesurer et de contrôler le matériau de la peau synthétique. »
116 points faciaux différents
Les chercheurs ont étudié 116 points faciaux différents sur Affetto pour mesurer son mouvement tridimensionnel. Les points faciaux étaient sous-tendus par des unités dites de déformation. Chaque unité comprend un ensemble de mécanismes qui créent une contorsion faciale distinctive, comme l’abaissement ou le relèvement d’une partie d’une lèvre ou d’une paupière. Les mesures effectuées à partir de ceux-ci ont ensuite été soumises à un modèle mathématique pour quantifier leurs mouvements de surface.
Alors que les chercheurs ont rencontré des difficultés pour équilibrer la force appliquée et pour ajuster la peau synthétique, ils ont été en mesure d’utiliser leur système pour ajuster les unités de déformation pour un contrôle plus précis des mouvements faciaux d’Affetto.
« Les visages de robots ont toujours été une forme de boîte noire pour les chercheurs: ils ont été mis en œuvre mais ont seulement été jugés en termes vagues et généraux », explique le premier auteur de cette recherche Hisashi Ishihara.
Des expressions plus nuancées
“Nos résultats plus précis nous permettront de contrôler efficacement les mouvements du visage des futures générations de robots pour permettre des expressions plus nuancées, comme le sourire et le froncement des sourcils. » Voici les résultats préliminaires de cette recherche :
Les chercheurs ont présenté leurs résultats dans la revue Frontiers in Robotics and AI.
Source et crédit photo : Osaka University