2016年01月18日-01月22日
トップ  > 科学技術ニュース>  2016年01月18日-01月22日 >  ロボットの「感情」、どのようにして生まれるのか?

ロボットの「感情」、どのようにして生まれるのか?

2016年01月28日

 ソフトバンクが開発した世界初の人と交流できる感情認識ロボット「ペッパー」が、先ほどネット上で販売された。価格は19万8000円で、初回販売分の1000台はわずか1分で完売した。人と同じく感情を持ったロボットは、人々から好評を博している。人民日報が伝えた。
 感情とは、外界の刺激に対する肯定的もしくは否定的な心理的反応を指す。例えば喜び、怒り、悲しみ、恐れなどだ。一般的には、人の感情は指標により数値化しにくいが、感情認識ロボットは異なる。冷たい山のような部品を組み立てると、目に見えない手にすることもできない感情を、ロボットが理解し表現できるデータに変えることができる。ロボットの感情は、こうして生まれる。
 米マサチューセッツ工科大学のロザリンド・ピカード教授は1990年代に、「感情計算」という概念を提唱した。この概念はまず生理学を利用し、人の心拍数、脈拍数、脳波といった心理に関するデータを測定し、これに基づき人の感情の状態を計算する。さらに心理学を利用し、各種センサにより環境情報をキャッチ・処理し、ロボットが置かれている感情の状態を計算する。
 人と人の感情交流の過程と同じく、感情認識ロボットは感情情報をキャッチし、識別・分析を行い、感情を表現する。ロボットはまず視覚・聴覚システムおよび各種センサによって外部の情報を集める。一般的なスマートロボットと異なり、感情認識ロボットは感情と関連する効果的な情報に的を絞り収集することができる。これは顔の表情や動き、声の高さや強さなどだ。感情情報の識別と分析は、この過程の中で特に重要だ。生活において、顔の表情は人々が頻繁に用いる、自然な感情表現方法だ。例えば眉を顰めれば、憤りを示すことができる。米国の心理学者のポール・エクマン氏は1970年代に、顔動作記述システム(FACS)を考案した。異なるコードと運動ユニットの組み合わせにより、ロボットに複雑な表情の変化(幸せ、憤り、悲しみなど)を自動的に識別・合成させる。他にも動作分析模型、音響学模型がある。
 感情分析模型の他に、知識バンクを構築し、人々がよく知る常識や慣用表現をロボットに「把握」させる必要がある。こうすることで、ロボットと人の交流がよりスムーズで面白くなる。感情認識・分析に、音声・表情・動作の合成を加える事で、機能が揃った感情認識ロボットが完成する。
 感情認識ロボットはそのコミュニケーション能力により、幅広い商業価値を持つ。医療、公共サービス、研究、スマートライフなどの面で、大活躍が期待される。ネスレは企業版のペッパーを使い、コーヒーマシンの販売員にしている。みずほ銀行はペッパーを接客担当にしている。ヤマダ電機は今年、ペッパーを家電販売員にする予定だ。ペッパーに似たロボットには、他にも自立型ロボットのNao、家庭向けロボのJiboがある。
 人の感情は計り知れず、それゆえに魅力的だ。感情認識ロボットは、現時点では人間のプログラミングの産物だ。感情認識ロボットは人間たちの感情への理解を促進し、将来的に生活・仕事の真の助手になるだろう。

※掲載された記事、写真の無断転載を禁じます