人の感情を読み取るAI

昨今は、AIの活用が騒がれており、AIという文字を新聞で見ない日のほうが少ないくらいに思える。30~40年ほど前の前回AIブームのころに騒がれていたのは、人間の専門家(エキスパート)のやり方を理解し、それをコンピューターに教え込んで実施してもらう、エキスパート・システムが中心であった。最近のAIブームは、機械学習(マシン・ラーニング)の発展した深層学習(ディープ・ラーニング)で、人間のエキスパートの真似をするのではなく、過去のたくさんの事例をもとに、いかにすれば成功するかを自ら考え、経験データを増やすことにより、さらに能力を高めるものだ。これによって囲碁の世界では、AIが世界のトップレベルの棋士を破るまでになっている。

そして、今度は人の感情を読み取るAI、Emotional AI(またはEmotional Intelligence)と呼ばれるものが、話題になりつつある。人の感情を読み取るのは、普通われわれも日常生活で行っていることだ。話し相手が喜んでいるか、悲しんでいるか、怒っているか、等を理解することによって、こちらも話すこと、話し方を考える。そのために、何をもとに相手の感情を理解しているかというと、相手の話している内容、声のトーン、表情やしぐさなどだ。ある調査によると、人の感情は、その人が言っていることから10%、どのように言っているか(声のトーン)から30~35%、残りは表情やしぐさからわかるということだ。

そこで、人間ではない、コンピューター(AI)が人の感情を理解するときも、まずは、これらの情報をもとに判断することになる。話している内容と声のトーンは音声認識技術と自然言語処理技術、表情やしぐさは視覚センサーから読み取る情報をもとにした表情やジェスチャー認識技術によって分析される。そして、どんな話の内容、声のトーン、表情、しぐさのときに、人は喜んでいるのか、悲しんでいるのか、怒っているのか、等を判断するためには、近年注目を浴びているディープ・ラーニングというAI技術を使い、たくさんの事例を教え込むことによって、AIにその判断力をつけることになる。

Emotional AIは、開発途上の技術なので、その精度は今後の進化に依存するところが大きいが、いろいろなところですでに応用が始まっている。たとえば、コールセンター。最近企業に電話で問い合わせをすると、まずコールセンターの自動応答につながる場合が多い。この自動応答で、なかなか実際の人と話ができないことにいら立つ人は多いと思うが、そんなとき、話している内容や声のトーンから、その人がいら立っていたり、怒っていたりすることがわかれば、即座に人間のオペレーターにつなぐ、ということにより、その人のいらだちや怒りを早いタイミングで解消することが可能になる。実際、このようなシステムを使っているところもあると聞くが、私の経験では、あまりそれによっていら立ちや怒りが解消された記憶はないので、このようなシステムが十分使い物になるレベルまでには、来ていないのかもしれない。

表情の認識を使ったものとしては、いろいろなものが検討、実施されはじめている。たとえば、広告業界では、消費者がある広告に対して、どのような反応を示しているかを理解することは、その広告の有効性の判断、また、最善の広告作りに大いに役立つ。特に広告作りの段階で、どの部分に視聴者は注目したか、どの部分に興味を示さなかったかなどを知ることは、よりよい広告作りに有効な手段となる。

教育分野でも、特にオンライン学習やタブレットなどを使った自習を行うとき、どこで利用者が興味を持ったか、逆にどこで興味を失ったかを知ることができれば、それによって、次の学習内容を変更するなど、対策をとることができる。現在はこの点が弱いため、コンピューターを使った学習では、途中でやめてしまう場合が多いとのことだ。この問題が解決できれば、教育効果も大幅に向上することが期待できる。現在でもテストの結果によって、次のステップを変更することは可能だが、利用者の感情が理解できれば、利用者のやる気を飛躍的に向上させられる可能性がある。

ゲームの世界でも、教育と同じように、ユーザーの感情(のめりこんでいるか、退屈しているか、など)をもとに、そのゲームの展開を変化させることができれば、単にスキルレベルだけでなく、よりパーソナライズされた、その人に向いたゲームにすることが可能になる。そして、ゲーム会社にとっては、より長くユーザーをそのゲームにくぎ付けにすることができる。ゲーム中毒になる人が増えてしまう、という別な問題が発生してしまう可能性はあるが。

自動車の世界では、感情までいかなくても、ドライバーの疲労度や眠気を判断することで、ドライバーに警告したり、休むことを勧めたりすることにより、事故を未然に防止することが可能になる。最近は、車の自動運転技術も向上し、100%自動運転ではないが、センサーからの各種情報をもとに、自動でブレーキをかけるなどが可能なので、ドライバーの疲労度や眠気、あるいは何かへのいら立ちや怒りなど、運転に悪影響を及ぼすことに対し、自動運転技術で何等かの対応ができれば、事故防止に大いに役立つことになる。さらにその先に行くと、たとえば、自動運転車に乗っている人の感情に合わせ、運転の仕方を変えたり、流す音楽を変える、ということも考えられているようだ。

そして、人の世話をするロボットが、世話をされる人の感情を理解してくれれば、それに合わせた対応ができ、世話をされる側も、とても心地よいものになるだろう。現在すでに販売されている、人の世話をするロボットも、最終的には、そのあたりを狙っているはずだが、いまのところ、そこまで満足できるものになっていないのか、たとえばヒト型ロボットで有名なペッパーは、ビジネス的には、まだ採算が取れない状況のようだ。

最近はIoT(Internet of Things)ということも大きな話題となっており、たとえば、鏡にセンサーがついていて、鏡に映った人の感情を読み取り、その人の気分で照明のレベルを変更したり、場合によっては、何か話しかけてくれる、ということも将来はあるのかもしれない。何やらSFの世界か、ディズニーアニメの世界のような気もするが、本当にそのようなことになると、少々気持ち悪いように感じるのは、もはや古い人間なのかもしれない。

人の感情だけでなく、考えていることを読み取る、という研究をしている会社もある。Facebookは、人の考えていることを読み取り、それをコミュニケーションにつなげるための研究をしていると、今年4月の開発者向けイベントで発表している。言葉なしでのコミュニケーション、いわゆるテレパシーの世界だ。このようなことを行うには、さすがに表情やしぐさの解析だけでは不十分で、脳の中を分析する必要がある。

具体的には、脳の神経細胞(ニューロン)に光を当て、その反応によって判断する、ということで、現在は研究を進めている。そして、単なる感情レベルではなく、それを言葉にして、相手に伝えることができないか、というところまで考えているようだ。それが実現すれば、まったく異なる言語を話す人たちも、お互いの言語を使わずにコミュニケーションができることになる。しかも、脳で考えていることのうち、相手に言ってもいいことだけを抽出するようなことを考えているとのことだが、本当にそんなことができるのか、一体自分の考えていることのどの部分が相手に伝わるのか、まだまだ先の話ではあるが、気になるところだ。

ここまでの話は、AIが人の感情を理解する話だが、最近のAIは自分で学習してその能力を高めるものなので、そのようにして進化したAIの頭脳そのものを、逆に人間が理解する必要も出てきている。これは「感情」というものとは少し違うかもしれないが、AI自身がいろいろ判断し、それをもとに次のステップを実行するようになってきているので、一体どのように考えて、ものごとを判断しているかを知る必要がある。一般にAIの判断は、中立であると思っている人が多いが、必ずしもそうではないからだ。それは、そのAIを作った人が作為的に何か中立でない基準を提供する場合もあるだろうし、たまたま与えられたデータが偏っていたため、それを標準的なものとAIが勘違いし、それに基づいて判断基準を決めてしまったから、ということもある。

実際、プロの囲碁棋士を破った AlphaGoを開発したDeepMind社では、そのような研究がなされている。そして、その方法は、なんと人間の子供の考えていることを理解するときと同じで、いろいろなテストを行う方法という。さらに、AIの考え方を理解するだけでなく、もし問題のある考え方をしていると判断された場合には、より正しい判断をしてもらうべく、セラピーのようなことを行う研究もされているという。ここまでくると、本当にAIが人間に近づいてくるような気になってくる。

人の感情を理解するAIや、自分の考えで行動するAI。これらは、うまく使えば、人間社会にとってとても有効なものとなるだろう。しかし、一つ間違えれば、とんでもない世の中になってしまう危険性もはらんでいる。人の感情が理解されてしまうと、プライバシーの問題や、人の感情操作と言った問題、さらに作為的に偏った考え方をもつAIを構築する問題なども発生してくるからだ。また、人間が理解できないAIの考え方で、世の中が変えられてしまう、あるいは、壊されてしまう懸念もある。AIのプラス面をいかに引き出し、マイナス面をうまく封じ込められるか、人間社会につきつけられた、大きな課題だ。

  黒田 豊

(2017年9月)

ご感想をお待ちしています。送り先はここ

戻る