テクノロジーの継続的な進歩により、アフェクティブ コンピューティング (Affective Computing) は大きな可能性を秘めた研究分野になりました。この学際的な分野は、人間の感情を認識、解釈、処理、シミュレートできるシステムとデバイスの開発に焦点を当てています。アフェクティブ コンピューティングの起源は、感情に関する初期の哲学的議論にまで遡ることができますが、現代の発展は、ロザリンド ピカードによる 1995 年の論文と 1997 年の同名の書籍から始まりました。これは機械に感情的知性を与えることを目的としたプロセスで、その 1 つは機械が人間の感情状態を理解し、適切に反応できるように共感をシミュレートすることです。
感情コンピューティングの中核は、機械が人間の感情をよりよく理解し、データ駆動型のインタラクションに適応できるようにする方法です。
感情認識のプロセスは通常、入力を解釈せずにユーザーの生理学的状態や行動を捕捉する受動センサーからのデータの捕捉から始まります。このデータは、人間が他人の感情を理解するときに使用する手がかりに似ています。たとえば、ビデオ カメラは顔の表情、体の姿勢、ジェスチャーをキャプチャでき、マイクは音声をキャプチャできます。それだけでなく、他のセンサーは、皮膚温度や電気皮膚反応などの生理学的データを直接測定することで、感情的な合図を検出できます。
データ分析技術に基づいて、これらの感情的特徴は、最終的には「混乱」または「幸せ」というラベルの付けられた顔の表情などにラベル付けされます。
感情コンピューティングのもう 1 つの分野は、感情を表現できるコンピューティング デバイス、または感情をうまくシミュレートできるコンピューティング デバイスの設計です。現在の技術能力により、会話エージェントによる感情のシミュレーションが実用化されています。マービン・ミンスキーはかつて感情が機械知能の全体的な問題に関連していることを指摘し、感情と「思考」は互いに統合されていると『The Emotion Machine』で言及しました。
デジタル ヒューマンの革新的なデザインは、これらの模擬人間プログラムに感情的な側面を与え、感情を刺激する状況に応じて反応できるようにすることを試みています。
感情コンピューティングの開発においては、音声の感情分析が特に重要です。感情認識テクノロジーは、音声特徴のコンピューター分析を通じてユーザーの感情状態を判断できます。研究によると、速く、大声で、明瞭な話し方は、恐怖、怒り、喜びなどの感情と関連付けられることが多く、ゆっくりで深く、ろれつが回らない話し方は、燃え尽き症候群、退屈、悲しみと関連付けられることが多いことがわかっています。さらに、音声特徴量の計算精度は約 70% ~ 80% に達し、人間の平均的な精度 (約 60%) を超えます。
さまざまな感情認識技術が開発されていますが、依然として多くの課題に直面しています。たとえば、俳優が示す感情は、現実の生活で示される感情とは異なることがよくあります。さらに、顔の姿勢が変化すると、感情の精度が低下することがわかりました。感情は動的プロセスであるため、静的に正確な分析を行うことは困難です。これには、さまざまな入力データだけでなく、感情コンピューティング技術における状況の複雑さも考慮する必要があります。
人工知能の感情検出は、認識の精度を向上させるためにマルチモーダル情報によってサポートされる必要があります。
テクノロジーの発展に伴い、感情コンピューティングの応用可能性は膨大です。機械に感情をより深く理解させることができるだけでなく、人間と機械の相互作用をより自然なものにすることもできるでしょう。しかし、感情コンピューティングの発展に伴い、「機械は人間の感情を本当に理解できるのか?」ということも考える必要があります。このようなテクノロジーは私たちの感情に対する理解を変えるのでしょうか?