はじめに
意中の相手から届いたLINEの返信に困る、困ったことはありませんか?
文章だけでは読み取れない相手の思いを何とか想像しようとして、成功した、失敗したという経験は、誰にでもあると思います。
これが、100%相手の意図を汲み取れて、そこに対するベストな回答ができるとしたら?そんな機能を持ったAIができるとしたら使って見たくないですか!?
今回はそんな話です。
感情認識AIとは?
AIは人間の感情を読み取ることができるのか?
生成型AIは驚異的な進化を遂げてきましたが、ここで検証したように人間の感情に寄り添うということはまだまだ苦手であると感じています。
AIが人間の感情を読み取るためには、人間の表情や声、言葉などのさまざまな要素を分析する必要があります。しかし、これらの要素はその人の育ってきた文化や状況によって異なる場合があり、感情の判断は主観的であることも多いため、AIが正確に感情を読み取ることは困難でした。
AIが人間の感情や気持ちを読み取ることを目指したのが『感情認識AI』です。音声やテキスト、表情、生体情報などから、喜怒哀楽や興味の度合いを分析することを目指します。
本当に実装されることになれば、コールセンターや接客業などで顧客満足度の向上に役立ったり、メンタルヘルスや自動運転などの分野での活用が期待されます。
感情認識AIの実際
AIが感情を読み取るためのインプットは主に以下の4種類が挙げられます。
テキスト・音声・表情・生体情報(脈拍や皮膚電気など)
テキストであれば、書かれている内容を認識して感情を判断します。文章に含まれる単語や言葉遣い、表現などから、ポジティブ・ネガティブ・ニュートラルなどに分類したり、細かい喜怒哀楽や好き嫌いを分類したり、感情レベルを数値化することで指標とします。
ここに音声なら声の大きさや抑揚、イントネーションなどを、表情であれば喜怒哀楽といった感情だけでなく、微妙な表情の変化や雰囲気から微妙な心の動きを読み取ります。
生体情報は、脈拍や皮膚電気などを指標に感情を判断します。心拍数や血圧、皮膚温度や皮膚電気反応などをセンサーで測定し、自律神経系の活動に基づいて感情を推定します。
感情認識AIの活用事例
テキスト
User Local社が提供する「感情認識AI」では、入力された文章から7種類(喜び・悲しみ・怒り・驚き・恐れ・嫌悪・信頼)の感情とその強度を分析します。
音声
Empath社が提供する「Empath」では、音声から4種類(喜び・悲しみ・怒り・平静)の感情とその強度を分析し、話者の性別や年齢層も推定できます。このサービスは、コールセンターや接客業などで顧客の感情を把握したり、メンタルヘルスや教育などで声から心の状態を判断したりすることができます。
表情
Affectiva社が提供する「Affectiva」では、カメラで撮影した顔画像から7種類(喜び・悲しみ・怒り・驚き・恐れ・嫌悪・軽蔑)の感情を分類し、笑顔や眉毛の動きなどの表情特徴や、視線やまばたきなどの注意特徴も測定できます。このサービスは、マーケティングや広告などで顧客の反応を測定したり、自動運転やゲームなどでユーザーの状態を調整したりすることができます。
生体情報
NeU社が提供する「NeU」では、首に装着したセンサーで心拍数変動や皮膚電気反応を測定し、6種類(喜び・悲しみ・怒り・驚き・恐れ・嫌悪)の感情を分類し、ストレスレベルやリラックスレベルも測定できます。このサービスは、メンタルヘルスや教育などで心身の状態を管理したり、エンターテイメントやアートなどで感情に応じた演出を行ったりすることができます。
まとめ
人間の感情表現は様々であり、時に感情と真逆の表情・発言をすることがあります。皮肉や冗談などの間接的な表現もあるため、人間 対 人間 でも正確に読み取るのは本当に難しいです。
いつになっても、人間社会のストレスの主要な原因は人間関係です。
もし本当にAIがこの機能を実装できるようになったら、100%の精度でなくてもかなりの精度で解析できるようになったとしたら、多くの人のストレスを軽減させることができるかもしれません。
AIとしても、より深く人間と関わるために必要なことであると思います。感情認識AIは、今後もさらに発展し、本当に人間にとってのこれ以上ないアシスタントになってくれるかもしれないですね。
AIと共に未来を創る!
コメント