DE | FR

L'IA est-elle prête à comprendre nos émotions?

Image: Shutterstock
L'intelligence émotionnelle, à savoir la capacité des machines à comprendre les émotions humaines, passionne les chercheurs mais pose un énorme défi technique.
09.05.2021, 17:4309.05.2021, 18:11
Audrey Masson / the conversation
Un article de The Conversation
The Conversation

L'intelligence artificielle (IA) regroupe toutes les techniques informatiques complexes capables de simuler certains traits de l'intelligence humaine (calcul, raisonnement, reconnaissance d'objets...).

Ces dernières années, une capacité à la fois essentielle et extrêmement complexe passionne les chercheurs en intelligence artificielle: l'intelligence émotionnelle, la capacité à comprendre les émotions. Et pour cause: ses champs d'application sont très vastes, dans la sécurité, le marketing, l'éducation, jusqu'à la santé et même nos futurs robots compagnons.

Mais donner aux machines la capacité de reconnaître les émotions est un grand défi scientifique. Des chercheurs de nombreuses disciplines (intelligence artificielle, robotique, psychologie, sciences cognitives, neurosciences, etc.) se rassemblent autour de cette question et rencontrent encore de nombreux problèmes théoriques et techniques.

L'IA réussit à décoder certaines émotions, dans certaines conditions

Grâce à l'arrivée des techniques d'apprentissage profond (des algorithmes formés de plusieurs couches de neurones artificiels connectés en réseau, capables de sélectionner les informations pertinentes et donc d'apprendre de façon relativement autonome), les programmes actuels montrent d'excellents résultats dans le décodage des expressions faciales et des émotions (jusqu'à plus de 99% de précision), quand ils sont entraînés et validés sur des images prises dans des conditions idéales.

En effet, la plupart des bases de données utilisées actuellement en IA sont composées d'expressions faciales «jouées», dans un décor neutre, et représentant un éventail limité de catégories d'émotions.

Cependant, face à des données plus naturelles de la vie quotidienne, les performances des programmes chutent drastiquement. Comment expliquer ces difficultés?

Inspirés par Darwin et l'universalisme, encore dominant en psychologie des émotions et fortement ancré dans la culture populaire (comment ne pas penser à la série «Lie to me», ou à Vice Versa de Disney?), les modèles à la base des algorithmes de détection des émotions supposent un lien direct et unique entre les expressions faciales et quelques émotions de base: joie, peur, colère, tristesse, surprise, dégoût et mépris.

L'IA peine à saisir la subtile et complexe alchimie des émotions

Pourtant, dans la vie quotidienne, les humains n'affichent que très rarement les expressions faciales typiques et exagérées qu'on peut trouver dans les bases de données. Leurs expressions sont plus variées, subtiles et souvent ambiguës. En fait, toutes les observations dans les situations naturelles indiquent que les expressions faciales sont très variables et dépendent de multiples facteurs.

Tout d'abord, il peut y avoir plusieurs types d'expressions faciales pour une même émotion. En effet, en fonction de nombreux facteurs tels que leur personnalité, leur expérience antérieure, leur culture, les différents rôles sociaux qu'ils sont amenés à jouer, mais aussi en fonction de la situation, les individus ne vivent pas ou n'expriment pas leurs émotions de la même manière ou avec la même intensité.

La même expression faciale peut avoir plusieurs significations. Par exemple, selon la situation, un froncement de sourcils peut signifier la colère, le dégoût, la tristesse, mais aussi des états mentaux plus complexes tels que la confusion ou une réflexion intense.

Les humains utilisent de façon assez instinctive un vaste ensemble d'informations pour exprimer ou décoder les émotions. En effet, pour paraphraser Lisa Feldman Barrett, professeur de psychologie à la Northeastern University, un visage n'apparaît jamais isolé comme celui du magicien d'Oz: les expressions faciales se manifestent toujours pour servir un but particulier dans un contexte donné, et c'est ce contexte qui déterminera l'interprétation correcte d'une expression.

Le contexte peut être défini comme l'ensemble des circonstances dans lesquelles survient un événement ou un message, et qui ont une influence sur sa signification.

Il s'agit donc d'un concept large et complexe, qui peut englober de nombreuses informations:

  • Le contexte lié au message lui-même c’est-à-dire toutes les modalités dans lesquelles il peut être exprimé: paroles, gestes, postures, direction du regard, intonation de la voix, etc.
  • Le contexte lié à l’environnement: le lieu dans lequel on se trouve, la date, le temps qu’il fait, le type de situation et ce qu’il vient de se passer, etc.
  • Le contexte social: la culture et la personnalité, les personnes présentes et leurs comportements, etc.

C'est là le principal problème de l'IA. Au cours des 5 dernières années, seules huit études ont tenté d'explorer le contexte dans lequel les expressions faciales apparaissent, la plupart se concentrant sur l'analyse des éléments de l'environnement physique (emplacement, température ambiante, etc.), plus faciles à formaliser.

L'IA (réellement) émotionnelle est-elle pour demain?

L'intelligence artificielle émotionnelle est un domaine en constante évolution: ces dernières années, les chercheurs ont développé des systèmes de plus en plus élaborés et puissants. Cependant, la plupart ont été testés dans des conditions très éloignées de la vie quotidienne, et on peut dire que l'IA est encore loin des capacités des humains à comprendre les émotions.

L'un des principaux problèmes est que les algorithmes sont conçus pour utiliser les données et en tirer des conclusions fixes, ce qui les rend incapables de prendre en compte les situations spéciales et nouvelles. Or, l'émotion est un phénomène subtil et changeant, et ses changements dépendent de nombreux facteurs qui n'ont pas encore été entièrement définis par la théorie.

Toutefois, l'absence d'une définition claire et commune de la notion d'émotion ne doit pas décourager les chercheurs d'étudier ce phénomène. Il est nécessaire de poursuivre les recherches pour permettre à l'intelligence artificielle de comprendre les manières subtiles dont l'humain ressent, exprime et échange ses émotions au quotidien.

Cet article a été publié initialement sur The Conversation. Watson change parfois le titre et les sous-titres. Cliquez ici pour lire l'article original

Après ce long sujet, détendez-vous avec des images d'animaux mignons!

1 / 27
Awww! Voici des animaux mignons!
source: imgur
partager sur Facebookpartager sur Twitterpartager par WhatsApp

Cela pourrait aussi vous intéresser:

Bill Gates aurait quitté Microsoft à cause d'une liaison avec une employée

Link zum Artikel

5 haies d'honneur légendaires du sport

Link zum Artikel

19 animaux qui prouvent que l'Australie est un pays flippant

Link zum Artikel

L'Etat le plus vacciné du monde forcé à reconfiner suite à une flambée de cas

Link zum Artikel

Le ou la Covid: connaissez-vous ces autres mots qui changent de sexe?

Link zum Artikel

«Ton mariage, c'était sympa... mais sans plus»

Link zum Artikel
Montrer tous les articles
0 Commentaires
Comme nous voulons continuer à modérer personnellement les débats de commentaires, nous sommes obligés de fermer la fonction de commentaire 72 heures après la publication d’un article. Merci de votre compréhension!
Le soldat américain le moins vivant du monde va aider Zelensky
Il s'appelle «Spot». C'est un chien. Enfin, un robot. Bref, un chien-robot. Conçue par la société Boston Dynamics, cette bestiole intègre au compte-gouttes, depuis 2016, les rangs des armées du monde. Si une école militaire française en a testé un en 2021, dès cette semaine, c'est l'Ukraine qui va pouvoir en profiter.

Faisons d'abord un peu connaissance avec ce soldat du futur:

L’article