Les progrès de la technologie moderne nous permettent de mieux comprendre et décoder les émotions humaines. Les expressions faciales, en tant que forme de communication non verbale, ont longtemps été considérées comme essentielles à l’expression émotionnelle. Cependant, pouvons-nous réellement comprendre correctement les sentiments intérieurs des autres en nous basant uniquement sur les expressions faciales ?
L'informatique affective est un domaine interdisciplinaire qui étudie et développe des systèmes et des appareils capables de reconnaître, d'interpréter, de traiter et de simuler les émotions humaines.
Les racines de l’informatique affective remontent aux premières discussions philosophiques, en particulier dans l’article de Rosalind Picard de 1995 intitulé « Affective Computing », dans lequel elle proposait une vision consistant à doter les machines d’une intelligence émotionnelle. Leur permettre de comprendre et de simuler les émotions humaines, et même de faire preuve d’empathie .
Dans divers domaines de l’informatique affective, un lien clé est la détection et l’identification des informations émotionnelles. Ce processus commence généralement par des capteurs passifs qui collectent des données sur l’état physiologique ou le comportement de l’utilisateur. Les données sont similaires aux indices que les humains utilisent pour ressentir les émotions des autres, tels que les expressions faciales, les postures corporelles et les caractéristiques de la voix.
La technologie informatique affective peut identifier l’état émotionnel de l’utilisateur en analysant les données physiologiques.
Bien entendu, la reconnaissance des expressions faciales ne repose pas uniquement sur des expressions évidentes, mais aussi sur des changements faciaux plus subtils, comme le plissement des sourcils ou le soulèvement des commissures de la bouche. Cela peut être réalisé grâce à des techniques d’apprentissage automatique, qui peuvent extraire des modèles significatifs à partir des données. L’objectif est de générer des étiquettes d’émotions qui correspondent à ce qu’un humain exprimerait dans la même situation, que ce soit « confus » ou « heureux ».
En termes de technologie, la simulation des émotions est également devenue un sujet brûlant. De nombreux concepteurs de chatbots et d’humains virtuels tentent de faire en sorte que leurs créations manifestent des émotions. Marvin Minsky, par exemple, a souligné que les émotions ne sont pas fondamentalement différentes des processus dits de « pensée ».
Une autre direction importante pour l’expression des émotions dans les machines est d’améliorer la capacité d’interaction homme-ordinateur.
Dans le contexte technologique actuel, de nombreux systèmes de reconnaissance des émotions utilisent différents types d’apprentissage automatique pour gérer la nature continue ou catégorielle des émotions. Ces systèmes peuvent identifier les émotions en fonction des changements de voix, et des études ont montré que leur précision est supérieure à celle des humains. Le français, l’intonation et la vitesse de parole sont tous considérés comme des indicateurs efficaces pour la reconnaissance des émotions. Les rapports de recherche indiquent que la précision de la reconnaissance des émotions basée sur la parole peut atteindre jusqu’à 80 %.
Cependant, les systèmes qui s’appuient sur des ensembles de données standard pour la formation sont également confrontés à des défis. La plupart des données existantes sont obtenues à partir des performances des acteurs, et ces expressions émotionnelles « ondulantes » peuvent ne pas refléter avec précision l’état émotionnel dans la vie quotidienne.
Les données sur les sentiments naturels sont difficiles à obtenir, mais elles sont très précieuses dans les applications pratiques.
Dans le processus de reconnaissance des émotions, l’établissement d’une base de données d’expressions faciales est également cruciale. Ces bases de données contiennent des images et des vidéos de diverses émotions, que les chercheurs peuvent utiliser pour améliorer les systèmes de reconnaissance. Cependant, les bases de données traditionnelles sont souvent composées d’expressions émotionnelles actives des participants, qui peuvent ne pas avoir le même effet que les expressions émotionnelles spontanées.
De plus, la reconnaissance des émotions peut également être réalisée grâce aux mouvements du corps et à la surveillance physiologique. Cette approche permet de prendre en compte de manière globale plusieurs signaux pour analyser plus précisément les états émotionnels. Les signaux physiologiques tels que la fréquence cardiaque et la réponse galvanique de la peau peuvent fournir des informations supplémentaires.
De manière générale, le développement de la reconnaissance des expressions faciales et de l’informatique émotionnelle est encore confronté à de nombreux défis et difficultés. Arriverons-nous un jour au point où les machines pourront pleinement comprendre et s’adapter aux émotions humaines ? Cela affecte-t-il notre façon de concevoir les relations ?