Mit der rasanten Entwicklung der Technologie der künstlichen Intelligenz hat sich Affective Computing (Affective Computing) zu einem aufstrebenden Forschungsgebiet entwickelt, dessen Ziel die Entwicklung von Systemen ist, die menschliche Emotionen erkennen, interpretieren und simulieren können. Dieses interdisziplinäre Fachgebiet verbindet Informatik, Psychologie und Kognitionswissenschaft, um Maschinen emotionale Intelligenz zu verleihen, damit sie menschliche emotionale Zustände verstehen und darauf reagieren können.
Das Hauptziel des Affective Computing besteht darin, Maschinen in die Lage zu versetzen, menschliche emotionale Zustände zu interpretieren und ihr Verhalten entsprechend anzupassen, damit sie angemessen reagieren können.
Rosalind Picards Aufsatz „Affective Computing“ aus dem Jahr 1995 und ihr gleichnamiges Buch aus dem Jahr 1997 markierten die modernen Anfänge des Fachgebiets. Picard betont, dass Emotionen nicht nur ein Begleiter des Denkens, sondern auch ein wichtiger Bestandteil der Intelligenz sind. Mit der Entwicklung der Technologie konzentrieren sich viele Studien darauf, wie emotionale Informationen mithilfe passiver Sensoren erfasst werden können, beispielsweise mithilfe von Kameras zur Erfassung von Gesichtsausdrücken, Körperhaltungen und Gesten.
Maschinelle Lerntechnologie kann aus der Sammlung verschiedener sensorischer Daten, wie z. B. Spracherkennung und Verarbeitung natürlicher Sprache, sinnvolle emotionale Muster effektiv extrahieren.
Die Identifizierung von Emotionen ist eine wichtige Aufgabe im Affective Computing. Einerseits basiert die Datenerfassung häufig auf passiven Sensoren, andererseits müssen diese Daten auch durch maschinelle Lerntechniken identifiziert und klassifiziert werden. Dabei ähneln die Fähigkeiten der KI immer mehr denen des Menschen, sodass sie in manchen Situationen sogar genauer sind als der durchschnittliche Mensch. Durch das Verständnis menschlicher Emotionen kann KI beispielsweise Empathie und Verständnis simulieren und so die menschlichen Interaktionen zwischen Menschen und Maschinen verbessern.
In einem Forschungsbereich, dem Affective Computing, konzentrieren sich Forscher auf die Gestaltung von Computergeräten mit emotionalen Fähigkeiten. Technisch gesehen besteht der aktuelle Entwicklungstrend darin, emotionale Simulationen auf Gesprächsagenten anzuwenden, wodurch die Mensch-Computer-Interaktion umfassender und flexibler wird. Der berühmte Pionier der künstlichen Intelligenz, Marvin Minsky, wies einmal darauf hin, dass sich Emotionen nicht grundlegend von Denkprozessen unterscheiden, was durch Affective Computing weiter bestätigt wurde.
Zukünftige digitale menschliche oder virtuelle menschliche Systeme werden darauf abzielen, menschliche emotionale Reaktionen, einschließlich Mimik und Gestik, sowie natürliche Reaktionen auf emotionale Reize zu simulieren.
In der Kognitionswissenschaft und Psychologie gibt es zwei Hauptmethoden zur Beschreibung von Emotionen: kontinuierlich und kategorisch. Der Unterschied zwischen diesen beiden Methoden hat zu einer Vielzahl von Regressions- und Klassifizierungsmodellen für maschinelles Lernen geführt, um die KI-Emotionserkennung zu unterstützen. Auf Sprache werden verschiedene Technologien zur Emotionserkennung angewendet, die den emotionalen Zustand des Benutzers anhand von Merkmalen wie Rhythmus, Tonhöhe und Artikulation der Sprache analysieren können.
Emotionale Merkmale wie Angst, Wut oder Glück, die durch Sprache erzeugt werden, sind für die Entwicklung der affektiven Computertechnologie von entscheidender Bedeutung. Diese Merkmale können alle zur Emotionserkennung durch rechnerische Analyse von Audiomerkmalen verwendet werden.
Bei der Emotionserkennung erfordert die Ausführung des entsprechenden Algorithmus den Aufbau einer stabilen Datenbank oder Wissensbasis. Verschiedene Klassifikatoren wie der lineare Diskriminanzanalysator (LDC), die Support Vector Machine (SVM) usw. werden häufig verwendet, um die Genauigkeit der Emotionserkennung zu verbessern.
Obwohl die Abhängigkeit des aktuellen Systems von der Emotionserkennung immer noch die Bedeutung von Daten deutlich macht, gibt es noch viele Herausforderungen. Die meisten Emotionsdaten stammen von Darstellern und erfassen daher möglicherweise nicht die Vielfalt natürlicher Emotionen. Um diese Emotionserkennungstechnologien besser in praktischen Anwendungen einsetzen zu können, erforschen Forscher weiterhin Methoden zur Konstruktion natürlicher Daten, um die Genauigkeit und Anwendbarkeit der Emotionserkennung zu verbessern.
Obwohl sich die Technologie zur Erkennung von Gesichtsemotionen ständig verbessert, gibt es immer noch viele Herausforderungen. Untersuchungen haben beispielsweise ergeben, dass viele trainierte Algorithmen bei der Erkennung natürlicher Ausdrücke schlecht abschneiden und dass die natürliche bzw. unnatürliche Natur von Gesichtsausdrücken zu Verwirrung zwischen den Emotionskategorien führt. Und das traditionelle Kodierungssystem für Gesichtsaktionen (FACS) ist auf die statische Darstellung beschränkt und kann dynamische Emotionen nicht erfassen.
Die eigentliche Herausforderung besteht darin, die in riesigen Datenmengen verborgenen Emotionen genau zu identifizieren, die in informellen sozialen Situationen schwieriger zu identifizieren sind.
Obwohl sich die heutige Algorithmustechnologie von Tag zu Tag verbessert, verfolgen viele Studien immer noch genauere Emotionserkennungs- und Reaktionsstrategien. Es wird erwartet, dass KI in naher Zukunft nicht nur Emotionen erkennen, sondern auch die emotionalen Bedürfnisse des Menschen wirklich verstehen und darauf reagieren kann. Mit der weiteren Verbesserung der Technologie wird das Verständnis und die Interaktion zwischen Mensch und Maschine in Zukunft nahtloser und natürlicher. Wird dies zu Veränderungen in der emotionalen Beziehung zwischen Mensch und Maschine führen?