La recherche utilise l'intelligence artificielle pour mesurer les émotions humaines

Une nouvelle recherche présentée virtuellement à la réunion annuelle de la Cognitive Neuroscience Society (CNS) montre comment les méthodes de calcul basées sur les données sont utilisées pour expliquer le trait humain le plus fondamental - les émotions. Les enquêteurs pensent que leurs découvertes renverseront les vieilles idées sur la structure des émotions à travers l'humanité.

Les scientifiques utilisent la puissance de calcul pour tout comprendre, de la manière dont nous générons des émotions spontanées lors de l'errance de l'esprit à la manière dont nous décodons les expressions faciales à travers les cultures.

Les chercheurs estiment que les résultats sont importants pour caractériser la façon dont les émotions contribuent au bien-être, la neurobiologie des troubles psychiatriques et même la façon de rendre des robots sociaux plus efficaces.

«L'intelligence artificielle (IA) permet aux scientifiques d'étudier les émotions d'une manière qui était auparavant considérée comme impossible, ce qui conduit à des découvertes qui transforment la façon dont nous pensons que les émotions sont générées à partir de signaux biologiques», a déclaré le Dr Kevin LaBar de l'Université Duke.

Six émotions humaines fondamentales - la peur, la colère, le dégoût, la tristesse, le bonheur et la surprise - sont considérées comme universelles dans la psychologie humaine depuis des décennies. Pourtant, malgré la prévalence sociétale de cette idée, les experts affirment que le consensus scientifique montre en fait que ces émotions sont loin d'être universelles.

En particulier, il existe un écart important dans la reconnaissance faciale de ces émotions à travers les cultures, en particulier pour les personnes d'Asie de l'Est, a déclaré le Dr Rachael Jack, chercheur à l'Université de Glasgow.

Jack a travaillé pour comprendre ce qu'elle appelle le «langage du visage»; comment les mouvements individuels du visage se combinent de différentes manières pour créer des expressions faciales significatives (comme la combinaison des lettres pour créer des mots).

«Je pense à cela un peu comme essayer de déchiffrer des hiéroglyphes ou une langue ancienne inconnue», a déclaré Jack. «Nous en savons tellement sur la langue parlée et écrite, voire sur des centaines de langues anciennes, mais nous avons relativement peu de connaissances formelles sur les systèmes de communication non verbale que nous utilisons quotidiennement et qui sont si essentiels pour toutes les sociétés humaines.

Dans un nouveau travail, Jack et son équipe ont créé une nouvelle méthode basée sur les données pour créer des modèles dynamiques de ces mouvements du visage, comme un livre de recettes d'expressions faciales des émotions. Son équipe transfère maintenant ces modèles à des agents numériques, tels que des robots sociaux et des humains virtuels, afin qu'ils puissent générer des expressions faciales socialement nuancées et culturellement sensibles.

À partir de leurs recherches, ils ont créé un nouveau générateur de mouvements du visage qui peut sélectionner au hasard un sous-ensemble de mouvements du visage individuels, tels que le soulèvement des sourcils, le rides du nez ou l'étirement des lèvres, et activer au hasard l'intensité et le timing de chacun.

Ces mouvements de visage activés au hasard se combinent ensuite pour créer une animation faciale. Les participants à l'étude de différentes cultures classent ensuite l'animation faciale en fonction des six émotions classiques, ou ils peuvent sélectionner «autre» s'ils ne perçoivent aucune de ces émotions.

Après de nombreux essais de ce type, les chercheurs établissent une relation statistique entre les mouvements du visage présentés à chaque essai et les réponses des participants, ce qui produit un modèle mathématique.

"Contrairement aux approches traditionnelles fondées sur la théorie où les expérimentateurs ont pris un ensemble hypothétique d'expressions faciales et les ont montrées aux participants du monde entier, nous avons ajouté une approche psychophysique", a déclaré Jack.

«Il est plus axé sur les données et plus agnostique dans l'échantillonnage et le test des expressions faciales et, de manière critique, utilise les perceptions subjectives des participants culturels pour comprendre quels mouvements du visage déterminent leur perception d'une émotion donnée, par exemple,« il est heureux.

Ces études ont condensé les six expressions faciales universelles des émotions que l'on pense généralement à quatre expressions interculturelles. «Il existe des différences culturelles substantielles dans les expressions faciales qui peuvent entraver la communication interculturelle», a déclaré Jack. «Nous constatons souvent, mais pas toujours, que les expressions faciales est-asiatiques ont des yeux plus expressifs que les expressions faciales occidentales, qui ont tendance à avoir une bouche plus expressive - tout comme les émoticônes orientales par rapport aux émoticônes occidentales!

Elle ajoute qu'il existe également des points communs culturels qui peuvent être utilisés pour soutenir une communication interculturelle précise de messages spécifiques; par exemple, les expressions faciales de la joie, de l'intérêt et de l'ennui sont similaires dans les cultures orientales et occidentales et peuvent être facilement reconnues à travers les cultures.

Jack et son équipe utilisent maintenant leurs modèles pour améliorer les capacités de signalisation sociale des robots et autres agents numériques qui peuvent être utilisés dans le monde entier. «Nous sommes très enthousiastes à l'idée de transférer nos modèles d'expression faciale à une gamme d'agents numériques et de constater l'amélioration spectaculaire des performances», dit-elle.

Comprendre comment l'expérience subjective de l'émotion est médiatisée dans le cerveau est le Saint Graal de la neuroscience affective, a déclaré LaBar de Duke.«C'est un problème difficile et peu de progrès ont été réalisés à ce jour.» Dans son laboratoire, LaBar et ses collègues s'efforcent de comprendre les émotions qui émergent pendant que le cerveau vagabonde au repos.

«Qu'elles soient déclenchées par des pensées ou des souvenirs internes, ces émotions de« flux de conscience »sont les cibles de rumination et d'inquiétude qui peuvent conduire à des états d'humeur prolongés et peuvent biaiser la mémoire et la prise de décision», a-t-il déclaré.

Jusqu'à récemment, les chercheurs étaient incapables de décoder ces émotions à partir des signaux de l'état de repos de la fonction cérébrale. Désormais, l’équipe de LaBar a pu appliquer des outils d’apprentissage automatique pour dériver des marqueurs de neuroimagerie d’un petit ensemble d’émotions telles que la peur, la colère et la surprise. De plus, les chercheurs ont modélisé la façon dont ces émotions émergent spontanément dans le cerveau pendant que les sujets se reposent dans un scanner IRM.

Le cœur du travail a été de former un algorithme d'apprentissage automatique pour différencier les modèles d'activité cérébrale qui séparent les émotions les unes des autres. Les chercheurs présentent un algorithme de classification de motifs avec un ensemble de données d'entraînement d'un groupe de participants à qui on a présenté de la musique et des clips vidéo qui induisaient des émotions spécifiques.

En utilisant le feedback, l'algorithme apprend à peser les entrées provenant de différentes régions du cerveau pour optimiser la signalisation de chaque émotion. Les chercheurs testent ensuite dans quelle mesure le classificateur peut prédire les émotions suscitées dans un nouvel échantillon de participants en utilisant l'ensemble de poids du cerveau qu'il a généré à partir de l'échantillon de test.

«Une fois que les schémas cérébraux spécifiques aux émotions sont validés à travers les sujets de cette manière, nous recherchons des preuves que ces schémas émergent spontanément chez les participants qui sont simplement allongés au repos dans le scanner», a déclaré Labar.

«Nous pouvons alors déterminer si le classificateur de modèles prédit avec précision les émotions que les gens rapportent spontanément dans le scanner et identifier les différences individuelles.»

Source: Société de neurosciences cognitives / EurekAlert

!-- GDPR -->