Audrey Masson, Université de Lorraine
L’intelligence artificielle (IA) regroupe toutes les techniques informatiques complexes capables de simuler certains traits de l’intelligence humaine (calcul, raisonnement, reconnaissance d’objets…).
Ces dernières années, une capacité à la fois essentielle et extrêmement complexe passionne les chercheurs en intelligence artificielle : l’intelligence émotionnelle, la capacité à comprendre les émotions. Et pour cause : ses champs d’application sont très vastes, dans la sécurité, le marketing, l’éducation, jusqu’à la santé et même nos futurs robots compagnons.
Mais donner aux machines la capacité de reconnaître les émotions est un grand défi scientifique. Des chercheurs de nombreuses disciplines (intelligence artificielle, robotique, psychologie, sciences cognitives, neurosciences, etc.) se rassemblent autour de cette question et rencontrent encore de nombreux problèmes théoriques et techniques.
L’IA réussit à décoder certaines émotions, dans certaines conditions
Grâce à l’arrivée des techniques d’apprentissage profond (des algorithmes formés de plusieurs couches de neurones artificiels connectés en réseau, capables de sélectionner les informations pertinentes et donc d’apprendre de façon relativement autonome), les programmes actuels montrent d’excellents résultats dans le décodage des expressions faciales et des émotions (jusqu’à plus de 99 % de précision), quand ils sont entraînés et validés sur des images prises dans des conditions idéales.
En effet, la plupart des bases de données utilisées actuellement en IA sont composées d’expressions faciales « jouées », dans un décor neutre, et représentant un éventail limité de catégories d’émotions.
Cependant, face à des données plus naturelles de la vie quotidienne, les performances des programmes chutent drastiquement. Comment expliquer ces difficultés ?
Inspirés par Darwin et l’universalisme, encore dominant en psychologie des émotions et fortement ancré dans la culture populaire (comment ne pas penser à la série « Lie to me », ou à Vice Versa de Disney ?), les modèles à la base des algorithmes de détection des émotions supposent un lien direct et unique entre les expressions faciales et quelques émotions de base : joie, peur, colère, tristesse, surprise, dégoût et mépris.
L’IA peine à saisir la subtile et complexe alchimie des émotions
Pourtant, dans la vie quotidienne, les humains n’affichent que très rarement les expressions faciales typiques et exagérées qu’on peut trouver dans les bases de données. Leurs expressions sont plus variées, subtiles et souvent ambiguës. En fait, toutes les observations dans les situations naturelles indiquent que les expressions faciales sont très variables et dépendent de multiples facteurs.
Tout d’abord, il peut y avoir plusieurs types d’expressions faciales pour une même émotion. En effet, en fonction de nombreux facteurs tels que leur personnalité, leur expérience antérieure, leur culture, les différents rôles sociaux qu’ils sont amenés à jouer, mais aussi en fonction de la situation, les individus ne vivent pas ou n’expriment pas leurs émotions de la même manière ou avec la même intensité.
La même expression faciale peut avoir plusieurs significations. Par exemple, selon la situation, un froncement de sourcils peut signifier la colère, le dégoût, la tristesse, mais aussi des états mentaux plus complexes tels que la confusion ou une réflexion intense.
Les humains utilisent de façon assez instinctive un vaste ensemble d’informations pour exprimer ou décoder les émotions. En effet, pour paraphraser Lisa Feldman Barrett, professeur de psychologie à la Northeastern University, un visage n’apparaît jamais isolé comme celui du magicien d’Oz : les expressions faciales se manifestent toujours pour servir un but particulier dans un contexte donné, et c’est ce contexte qui déterminera l’interprétation correcte d’une expression.
Le contexte peut être défini comme l’ensemble des circonstances dans lesquelles survient un événement ou un message, et qui ont une influence sur sa signification.
Il s’agit donc d’un concept large et complexe, qui peut englober de nombreuses informations :
- le contexte lié au message lui-même c’est-à-dire toutes les modalités dans lesquelles il peut être exprimé : paroles, gestes, postures, direction du regard, intonation de la voix, etc.
- le contexte lié à l’environnement : le lieu dans lequel on se trouve, la date, le temps qu’il fait, le type de situation et ce qu’il vient de se passer, etc.
- le contexte social : la culture et la personnalité, les personnes présentes et leurs comportements, etc.
C’est là le principal problème de l’IA. Au cours des 5 dernières années, seules 8 études ont tenté d’explorer le contexte dans lequel les expressions faciales apparaissent, la plupart se concentrant sur l’analyse des éléments de l’environnement physique (emplacement, température ambiante, etc.), plus faciles à formaliser.
L’IA (réellement) émotionnelle est-elle pour demain ?
L’intelligence artificielle émotionnelle est un domaine en constante évolution : ces dernières années, les chercheurs ont développé des systèmes de plus en plus élaborés et puissants. Cependant, la plupart ont été testés dans des conditions très éloignées de la vie quotidienne, et on peut dire que l’IA est encore loin des capacités des humains à comprendre les émotions.
L’un des principaux problèmes est que les algorithmes sont conçus pour utiliser les données et en tirer des conclusions fixes, ce qui les rend incapables de prendre en compte les situations spéciales et nouvelles. Or, l’émotion est un phénomène subtil et changeant, et ses changements dépendent de nombreux facteurs qui n’ont pas encore été entièrement définis par la théorie.
Toutefois, l’absence d’une définition claire et commune de la notion d’émotion ne doit pas décourager les chercheurs d’étudier ce phénomène. Il est nécessaire de poursuivre les recherches pour permettre à l’intelligence artificielle de comprendre les manières subtiles dont l’humain ressent, exprime et échange ses émotions au quotidien.
Audrey Masson, Doctorante et ingénieure de recherche en psychologie, Université de Lorraine
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.