Quiz BBS'ERT

BBS Emotion Recognition Test


Avant de vous lancer dans ce petit test ludo-canulardo-humoristicomique, lisez cet article, très sérieux sur le sujet de la robotique, du journaliste Javier SAMPREDO paru dans El Pais en novembre 2008, repris dans le Courrier International.

EMPATHIE • Au gré de nos humeurs

Le robot de prochaine génération ne sera utilisé ni pour des opérations militaires kamikazes, ni pour des missions spatiales. Il sera là pour tenir compagnie aux cœurs solitaires, s’occuper des personnes âgées, jouer avec les enfants et donner un coup de main à la maison. Tout cela passera nécessairement par des modélisations informa­tiques très pointues afin de détecter et d’interpréter les émotions hu­maines, et de permettre au robot d’apprendre à réagir au caractère de son maître.

C’est le défi que se propose de relever le projet européen Feelix Growing, dirigé par Lola Cañamero, une chercheuse espagnole de l’université de Hertfordshire (Royaume-Uni). “Pour que les robots puissent vivre avec des humains, ils doivent grandir avec eux et apprendre à interpréter leurs émotions, affirme-t-elle. Cela im­plique diverses stratégies sur lesquelles nous travaillons en parallèle, comme équiper les robots de l’équivalent d’un système de plaisir et de douleur qui leur permette de catégoriser les stimuli ; leur donner les moyens d’apprendre des comportements sociaux – comme la distance qu’ils doivent observer envers chaque personne – et d’interpréter les émotions des humains.” Comment un robot peut-il lire les émotions de son maître ? “Les robots devront s’adapter à chaque personne, explique Mme Cañamero. Mais, les humains exprimant beaucoup d’émotions par des signes extérieurs universels et inconscients, ce sont ceux-là auxquels nous nous intéressons le plus.”

Les émotions fondamentales – tristesse, joie, ennui, peur, amour, haine et surprise – sont communes à toutes les cultures humaines. Leurs manifestations extérieures, nombreuses et identifiables d’une culture à l’autre, peuvent donc tout aussi bien être appliquées à des robots. “Les signes que nous privilégions dans nos re­cherches sont la distance, la vitesse de marche d’un individu, les constantes de son mouvement, la façon dont il bouge les bras – autant de mouvements qui varient selon que l’on est triste, en colère ou content –, la posture générale du corps et le port de tête”, explique Mme Cañamero. Et le visage ? “La reconnaissance des expressions faciales est un thème sur lequel travaille l’équipe de l’université technique d’Athènes (en Grèce), poursuit-elle. Mais il faudra du temps pour le développer.”

Avec tous ces systèmes, on peut établir un certain feed-back : en fonction des réactions de l’être humain – grimaces, intonations de colère dans la voix –, le robot est capable de déduire qu’il a fait quelque chose de mal et de rectifier son comportement pour mieux répondre aux attentes de son “maître” la fois suivante.

Le test décisif

Et maintenant, testez votre capacité à reconnaître les émotions humaines

Vous avez bien lu l'article ? Bref, vous l'aurez compris, nous n'aurons peut-être pas de robots capables de mettre un nom sur nos émotions avant longtemps. Mais vous, êtes-vous vraiment plus malin que les robots ? Testez-vous et vérifiez que les Nabaztag, Aibo et autres MOC ou micmac ne vous surclassent pas déjà !

Voici 12 diapositives d'un sujet qui exprime 12 émotions différentes et reconnaissables. Enfin, que vous devriez reconnaître pour ne pas vous voir remplacé(e) par un robot de l'université de Hertfordshire. Sélectionnez, dans le menu déroulant sous chaque vignette, l'émotion qui vous semble correpondre à l'image. Et envoyez votre résultat.

12 vignettes, 12 émotions, un seul bon choix par vignette !
Cliquer sur les vignettes pour zoomer ET dézoomer.













Entrez votre adresse email, indispensable pour recevoir votre résultat détaillé par courriel dans votre BAL.

Email :  

Statistiques :

Identification :

Utilisateurs :

Il y a actuellement 1 utilisateur connecté.

Droits d'auteur :

Ce site est mis à disposition
sous un contrat Creative Commons :
http://creativecommons.org