Les expressions faciales seules peuvent ne pas transmettre un état émotionnel

Une nouvelle recherche précise que l’intelligence émotionnelle implique bien plus que la lecture des micro-expressions des gens. Lorsqu'il s'agit de lire l'état d'esprit d'une personne, le contexte visuel de l'arrière-plan et de l'action est aussi important que les expressions faciales et le langage corporel.

Des chercheurs de l'Université de Californie à Berkeley donnent l'exemple de l'acteur James Franco dans le film nominé aux Oscars «127 heures». Dans une scène, Franco a l'air vaguement heureux alors qu'il enregistre un journal vidéo dans le film. Mais lorsque la caméra fait un zoom arrière, le public voit que son bras est écrasé sous un rocher, et que son sourire dément son agonie.

Le nouveau point de vue remet en question des décennies de recherche selon lesquelles l'intelligence émotionnelle et la reconnaissance reposent en grande partie sur la capacité de lire les micro-expressions faciales. Les expressions étaient considérées comme un indicateur de bonheur, de tristesse, de colère, de peur, de surprise, de dégoût, de mépris et d'autres humeurs et sentiments positifs et négatifs.

La nouvelle étude, à paraître en ligne cette semaine dans la revue Actes de l'Académie nationale des sciences, suggère que la détection émotionnelle nécessite plus qu'une simple «lecture» faciale.

«Notre étude révèle que la reconnaissance des émotions est, en son cœur, une question de contexte autant que de visages», a déclaré l'auteur principal Zhimin Chen, étudiant au doctorat en psychologie à l'UC Berkeley.

Dans l'étude, les chercheurs ont brouillé les visages et les corps des acteurs dans des dizaines de clips muets de films hollywoodiens et de vidéos personnelles. Malgré l'invisibilité virtuelle des personnages, des centaines de participants à l'étude ont pu lire avec précision leurs émotions en examinant l'arrière-plan et la façon dont ils interagissaient avec leur environnement.

Le modèle de «suivi affectif» créé par Chen pour l'étude permet aux chercheurs de suivre la façon dont les gens évaluent les émotions des personnages à chaque instant lorsqu'ils regardent des vidéos.

La méthode de Chen est capable de collecter de grandes quantités de données en peu de temps et pourrait éventuellement être utilisée pour évaluer la façon dont les personnes atteintes de troubles comme l'autisme et la schizophrénie lisent leurs émotions en temps réel et les aident à diagnostiquer.

«Certaines personnes peuvent avoir des déficiences dans la reconnaissance des expressions faciales, mais peuvent reconnaître l'émotion du contexte», a déclaré Chen. "Pour d'autres, c'est le contraire."

De plus, les résultats, basés sur des analyses statistiques des notes recueillies, pourraient éclairer le développement de la technologie de reconnaissance faciale.

«À l'heure actuelle, les entreprises développent des algorithmes d'apprentissage automatique pour reconnaître les émotions, mais elles ne forment leurs modèles que sur des visages coupés et ces modèles ne peuvent lire les émotions que sur les visages», a déclaré Chen. "Nos recherches montrent que les visages ne révèlent pas les vraies émotions avec beaucoup de précision et que l'identification de l'état d'esprit d'une personne doit également prendre en compte le contexte."

Pour l'étude, Chen et l'auteur principal de l'étude, le Dr David Whitney, un scientifique de la vision et professeur de psychologie à l'UC Berkeley, ont testé les capacités de reconnaissance des émotions de près de 400 jeunes adultes. Les stimuli visuels qu'ils utilisaient étaient des clips vidéo de divers films hollywoodiens ainsi que des documentaires et des vidéos personnelles qui montraient des réactions émotionnelles dans des contextes plus naturels.

Les participants à l'étude se sont mis en ligne pour visionner et évaluer les clips vidéo. Une grille de notation a été superposée sur la vidéo afin que les chercheurs puissent suivre le curseur de chaque participant à l'étude alors qu'il se déplaçait sur l'écran, traitant les informations visuelles et évaluant les émotions d'un moment à l'autre.

Dans la première des trois expériences, 33 participants à l'étude ont vu les interactions dans des clips vidéo entre deux personnages, dont l'un était flou, et ont évalué les émotions perçues du personnage flou. Les résultats ont montré que les participants à l'étude ont déduit comment le personnage invisible se sentait en se basant non seulement sur leurs interactions interpersonnelles, mais également sur ce qui se passait en arrière-plan.

Ensuite, environ 200 participants à l'étude ont visionné des clips vidéo montrant des interactions dans trois conditions différentes: une dans laquelle tout était visible, une autre dans laquelle les personnages étaient flous et une autre dans laquelle le contexte était flou. Les résultats ont montré que le contexte était aussi important que la reconnaissance faciale pour décoder les émotions.

Dans l'expérience finale, 75 participants à l'étude ont visionné des clips de documentaires et de vidéos personnelles afin que les chercheurs puissent comparer la reconnaissance des émotions dans des contextes plus naturalistes. Encore une fois, le contexte était aussi critique pour déduire les émotions des personnages que leurs expressions faciales et leurs gestes.

«Dans l’ensemble, les résultats suggèrent que le contexte est non seulement suffisant pour percevoir l’émotion, mais également nécessaire pour percevoir l’émotion d’une personne», a déclaré Whitney, professeur de psychologie à l’UC Berkeley. «Faites-y face, le visage ne suffit pas pour percevoir l'émotion.»

Source: Université de Californie à Berkeley

!-- GDPR -->