情感计算是研究与发展能够识别、解释、处理和模拟人类情感的系统和设备的学科。这是一个跨学科领域,涵盖了计算机科学、心理学和认知科学。早期的情感探讨可以追溯到人类对情感的哲学性思考,但现代的计算机科学分支始于1995年罗莎琳德·皮卡德的论文《情感计算》,以及她于1997年发表的同名书籍。该领域的一个主要动机是赋予机器情感智力,包括模拟同理心,使机器能够理解人类的情感状态并根据这些情感调整其行为,这样就能给予合适的情绪反应。
情感计算的目标在于提升人与机器之间的互动,使其更具人性化。
侦测情感资讯通常从被动传感器开始,这些传感器无需解释输入数据便捕获用户的身体状态或行为。这些数据类似于人类用以感知他人情感的线索。例如,视频摄像机可以捕捉面部表情、身体姿势和手势,而麦克风则记录语音。其他的传感器透过直接测量生理数据来侦测情感线索,比如皮肤温度和电皮肤反应。
另一个重要领域在于设计能够展现内在情感或能够令人信服地模拟情感的计算设备。现今的技术能够模拟情感,尤其在对话代理人(conversational agents)中的应用增强并促进了人与机器的互动。电脑科学先驱马文·明斯基在《情感机器》中将情感与机器智能的广泛问题联系起来,指出情感“并不特别地异于我们称之为'思考'的过程。”数位人类(digital humans )即是一种尝试,旨在赋予这些程序情感维度,包括在面对某种情感刺激时的反应,以及相应的面部表情和手势。
情感在机器中通常涉及计算系统的情感,所有这些都催生了“情感AI”和“情绪AI”这些术语。
心理学、认知科学及神经科学中,主要有两种描述人类如何感知和分类情感的方法:连续方法(continuous approach)和类别方法(categorical approach)。而在情感识别过程中, 使用各种机器学习回归和分类模型的技术也相当关键。
自主神经系统的变化会间接改变一个人的语言,而情感技术可以利用这些信息来识别情感。例如,恐惧、愤怒或喜悦状态下的语音往往快速、响亮且清晰,伴随着较高且较宽的音调范围,而疲倦、无聊或悲伤则通常会导致语音缓慢、低音和含糊。情感语音处理技术可以透过对语音特征的计算分析来识别用户的情感状态。
语音/文本情感检测的流程需要创建一个可靠的数据库和知识库,并选择一个有效的分类器来实现快速和准确的情感识别。随着技术的发展,不同的算法相继被提出,使用适当的分类器能显著提高系统的整体效能。
选择适合的分类器能显著提升情感识别的准确性和效率。
面部表情的侦测和处理通常通过光流、隐马可夫模型、神经网络等方法实现。除了面部表情本身,结合语音音律、手势等多种资讯进行多模态识别,可以更准确地评估主体的情感状态。建立情感数据库是一项需要时间和精力的任务,而大多数公开的情感数据库仅包括姿态表情,这使得面部情感识别面临挑战。
手势可被有效地用作识别用户特定情感状态的方式,尤其当与语音和面部表情识别结合使用时。手势识别方法主要分为基于3D模型和外观的两种途径,电脑应该能够理解这些动作并作出适当的反应,以促进人机交互的效率。
这可以通过监测和分析用户的生理信号来检测其情感状态。生理信号包括心率变化、皮肤导电反应、小脸肌的收缩和血流的变化等。这一领域最近得到了进一步的关注,我们现在看到一些真实产品已经采用这些技术。
随着技术的发展,情感计算在日常生活中扮演的角色越来越重要。未来的机器是否能够拥有真正的同理心?