Mit der kontinuierlichen Weiterentwicklung der Technologie ist Affective Computing (Affective Computing) zu einem Forschungsgebiet mit großem Potenzial geworden. Dieses interdisziplinäre Feld konzentriert sich auf die Entwicklung von Systemen und Geräten, die menschliche Emotionen erkennen, interpretieren, verarbeiten und simulieren können. Die Ursprünge des Affective Computing lassen sich auf frühe philosophische Diskussionen über Emotionen zurückführen, während moderne Entwicklungen mit einem Aufsatz von Rosalind Picard aus dem Jahr 1995 und einem gleichnamigen Buch aus dem Jahr 1997 begannen. Dabei handelt es sich um einen Prozess, der darauf abzielt, Maschinen emotionale Intelligenz zu verleihen. Eine davon ist die Simulation von Empathie, damit Maschinen menschliche emotionale Zustände verstehen und angemessen reagieren können.
Der Kern des Affective Computing besteht darin, es Maschinen zu ermöglichen, menschliche Emotionen besser zu verstehen und sich an datengesteuerte Interaktionen anzupassen.
Der Prozess der Emotionserkennung beginnt normalerweise mit der Datenerfassung von passiven Sensoren, die den physiologischen Zustand oder das Verhalten des Benutzers erfassen, ohne die Eingaben zu interpretieren. Diese Daten ähneln den Hinweisen, die Menschen verwenden, um die Emotionen anderer zu verstehen. Videokameras können beispielsweise Gesichtsausdrücke, Körperhaltungen und Gesten erfassen, während Mikrofone Sprache erfassen können. Darüber hinaus können andere Sensoren emotionale Signale erkennen, indem sie physiologische Daten wie Hauttemperatur und elektrokutane Reaktion direkt messen.
Basierend auf Datenanalysetechniken werden diese emotionalen Merkmale schließlich mit Etiketten versehen, beispielsweise mit Gesichtsausdrücken, die als „verwirrt“ oder „glücklich“ gekennzeichnet sind.
Ein weiterer Bereich des Affective Computing ist die Entwicklung von Computergeräten, die Emotionen zeigen oder Emotionen erfolgreich simulieren können. Aktuelle technologische Möglichkeiten machen die Simulation von Emotionen durch Konversationsagenten zu einer praktischen Anwendung. Marvin Minsky wies einmal darauf hin, dass Emotionen mit dem Gesamtproblem der maschinellen Intelligenz zusammenhängen, und erwähnte in „The Emotion Machine“, dass Emotion und „Denken“ miteinander integriert sind.
Das innovative Design digitaler Menschen versucht, diesen simulierten menschlichen Programmen eine emotionale Dimension zu verleihen, damit sie in emotional anregenden Situationen entsprechend reagieren können.
Bei der Entwicklung des Affective Computing ist die emotionale Analyse von Sprache besonders wichtig. Emotionserkennungstechnologie kann den emotionalen Zustand des Benutzers durch rechnerische Analyse von Sprachmerkmalen bestimmen. Untersuchungen zeigen, dass schnelles, lautes und deutliches Sprechen häufig mit Emotionen wie Angst, Wut oder Freude verbunden ist, während langsames, tiefes und undeutliches Sprechen häufiger mit Burnout, Langeweile oder Traurigkeit verbunden ist. Darüber hinaus kann die Berechnungsgenauigkeit von Sprachmerkmalen etwa 70 bis 80 % erreichen und damit die durchschnittliche menschliche Genauigkeit (etwa 60 %) übertreffen.
Obwohl eine Vielzahl von Technologien zur Emotionserkennung entwickelt wurden, stehen sie immer noch vor vielen Herausforderungen. Beispielsweise unterscheiden sich die von Schauspielern gezeigten Emotionen oft von den im wirklichen Leben gezeigten Emotionen. Darüber hinaus wurde festgestellt, dass die emotionale Genauigkeit abnahm, wenn die Gesichtshaltung geändert wurde. Da Emotionen ein dynamischer Prozess sind, ist es schwierig, statisch eine genaue Analyse durchzuführen. Dies erfordert, dass wir nicht nur verschiedene Eingabedaten berücksichtigen, sondern auch die Komplexität der Situation in der affektiven Computertechnologie.
Die Emotionserkennung durch künstliche Intelligenz muss durch multimodale Informationen unterstützt werden, um die Genauigkeit der Erkennung zu verbessern.
Mit der Entwicklung der Technologie ist das Anwendungspotenzial des Affective Computing enorm. Wir werden nicht nur in der Lage sein, Maschinen mit einem tieferen emotionalen Verständnis auszustatten, sondern wir werden auch in der Lage sein, die Interaktion zwischen Mensch und Maschine natürlicher zu gestalten. Mit der Entwicklung des Affective Computing müssen wir jedoch auch darüber nachdenken: Können Maschinen menschliche Emotionen wirklich verstehen? Wird eine solche Technologie unser Verständnis von Emotionen verändern?