IT and Automation
Communications
Control Systems
Sensing, Measurements
Intelligent Systems
Environments, Ecology
Aircraft,Automotive
Int. Conferences
Executive topics







ISA Japan Section
Mail to: Web master
[Tech] [Entertainment] [Pet Robot]

感情を持ったペットロボット
Pet Robot that has Emotions

松岡照彦 オムロン褐F本研究所長
ISAJ NewsLetter No.13,2000

1.はじめに

photo
写真1. ペットロボットの外観と行動表現(居眠り,伏せ,お座り,手招き)

産業分野で扱われる機械は、生産性や効率性が追求される。そのため、操作が複雑であっても、扱い方を学んだり熟練者を育成することで対処されてきた。しかし、生活領域の中で使われる機械は、だれもが簡単に扱えることが重要である。そのためには、人と機械が互いに相手を理解し、容易にコミュニケーションできること、機械自身が自律的に判断し行動できることが求められる。今回、機械が人を理解し自分の意図を表出する典型的な応用例として、ペットロボットの開発をスタートした。

2.ペットロボットの狙い

ペットロボットは、家庭の中で面白さや親しみなどの精神的価値を提供するロボットである。最近の孤独社会やストレス社会などの現象から、“やすらぎや安心感を提供し、心の癒しに繋がるロボット”を目標とする。接触やコミュニケーションの行動が、情緒的に結びつきたいとの欲求状態すなわち“愛着”行動であると言われている1)。
そこで、人が動物のペットのように触れ合い、コミュニケーションを繰り返すことでやがてやすらぎを感じられる、そんなペットロボットを開発するために、生き物のように心をもち自律的に振る舞い、人とインタラクションを実現する機能と技術を開発した。またペットロボットの外観は猫型とし、猫の習性・心理・行動を取り入れた。

3.ロボットの構造

fig1 ペットロボットは、触覚・聴覚・姿勢センサを内蔵し、それらの情報を総合して人の行為や周囲状況を認識する認識部、認識結果に基づき、自分の感情が変化したり、体内の生理的なリズムや感情の状態から欲求を生成する感情モデル、感情や欲求を体の動きや鳴き声で表現するための行動生成部、そして、体を動かすモータで構成される。ハードウェアとしては、全体の制御と感情モデルの処理を行う32bit RISC型CPU、音声処理を行うDSP、音声認識IC、モータ制御を行うDSPで構成される。
駆動部の自由度は、前脚が左右各2自由度、頭が2自由度、尻尾が1自由度、瞼が1自由度の合計8自由度である。頭部には、鳴き声を発生するスピーカが組み込まれている。これらによって、感情を表現するための行動を行う。全体の重さは約1.5kg、体長は約30cm。
猫のぬいぐるみの内部には、胴体部に回路基板と電池を内蔵している。直接直流電源に接続して常に動作させることができるほか、モータ制御系にリチウムイオン電池、モータ駆動系にニッカド電池を使用して、ケーブルレスで動作させることも可能である。電池での動作時間は、約30分。その他、外部のパソコンから内部状態をモニタしたり、制御するためのシリアル通信i/fを備えている。

4.認識センシング

4.1 触覚センシング

触覚センサは、頭、背中に圧力センサを、顎や頬にマイクロスイッチを内蔵する。それぞれのセンサの入力信号から強さや時間的変化量などの特徴量を演算し、ファジィ推論により「たたく」「なでる」「さわる」という行為の識別と適合度を算出する。これらの行為は人の感情に基づく行為と解釈でき、ロボット自身の感情を変化する要因である。触覚センシングは、愛着行動である身体的インタラクション、すなわち触れ合いを実現する。

4.2 聴覚センシング

複数のマイクロフォンを頭部に内蔵し、音の大きさ・音源の方向認識・音声認識を行うことができる。音の大きさは、急に大きな音がするとびっくりするなど反射的な行動を起こしたり、音の時系列の情報から、物体がだんだん近づいてくる、あるいは遠ざかるなどの周囲の状況を認識する。音源の方向認識は、物音のする方向を向いたり、話かける人の方向を向いて瞬きするなど、生き物らしい振る舞いの行動を可能とする。音声認識は特定話者認識であり、予め登録した言葉を認識できる。従って、主人が音声を登録し、そのことばには特別の反応動作をすることで、主人との特別の関係を築くことができる。

4.3 姿勢センシング

ロボットの胴体内部に、3次元の加速度センサが内蔵され、このセンサ信号から自分の姿勢(傾き)と揺れを認識する。逆さにされたり揺れ動かされている状態では、非常に不安定で不快な感情を示したり、抱かれている状態を認識し満足するなどのように、感情生成に結び付けることができる。

5.感情モデル

感情モデルは、認知的評価理論という心理学理論に基づいて構築した独自のモデルで、MaCモデル(Mind and Conscious model:心と意識)と呼んでいる2)3)。センサで得た情報を基に人の意図・感情や周囲の状況を認識し、その結果から感情が変化し、その感情に基づいて行動することを特徴とする。感情モデルの処理構造は、反射的動作を生成する反射的処理階層と、感情や欲求を生成する熟考的処理階層の階層 構造で構成される。

fig2
図2. 感情モデル機能ブロック図

5.1 反射的処理階層

反射的動作は、突発的な大きな音に驚いたり、触られることで反応するなど無意識に発生する動作で、本能的な動作とも言える。反射的動作の生成は、センサ入力―モータ出力の単純な要素行動の関係を複数用意し、多様な動作を実現するサブサンプションアーキテクチャで実現する。例えば、頭や顎・頬に触られたりするとそれを避けるように反対側に顔を移動したり、急に大きな音がすると瞬きをして周囲をキョロキョロするなどの動作を行う。

5.2 熟考的処理階層

熟考的処理階層では、感情を生成する機能、欲求を生成する機能、刺激を学習する長期記憶機能を有する。感情を生成する機能では、認識センシングで認識された刺激に基づいて人の行為や周囲の状況を記述し、その状況と自分の欲求など内部状態に応じて感情が変化していく。ここで扱う感情は、「満足」「怒り」「不安」「恐怖」「嫌悪」「驚き」の6種類に分類され、それぞれ多値レベルで表される。これらの感情は受ける刺激によって変化し、また時間経過とともに減衰していく。従って、インタラクションを繰り返すことで感情が変化し、感情レベルの蓄積によって性格が形成されていく。例えば、たたかれながら成長した場合には怒りやすい性格を、よくなでられて成長した場合には優しい性格が形成され、主人の飼い方しだいで性格が変化していく。
欲求を生成する機能では、「なでてもらいたい」「抱かれたい」「眠い」などの欲求が生成される。これは、生物にとっての生得的目標であり、動物の生理的なリズムとして生成される。例えば夜になると「眠い」という欲求が表れ、眠りやすくなる。それぞれの欲求について初期には一日の基本的なリズムを予め備えているが、周囲状況やユーザとのインタラクションに応じてそのリズムは変化する。いつも夕方に主人に抱かれたり撫でられたりしていると、だんだんリズムが変化し、夕方になると自分から「撫でてもらいたい」などを要求したり、夜に刺激をうけることが多いならば、刺激を受ける時間帯の少ない朝方に眠りやすくなるなど変化する。従って、主人の生活リズムにだんだん合わせたリズムに適応していく。
刺激の学習機能では、認識された刺激とそれによって発生した感情との因果関係を、快適な刺激/不快な刺激と識別して記憶する。記憶した後同じ刺激がくると、記憶した因果関係の情報に基づいて快適な刺激か不快な刺激か判断し、欲求や感情が変化する。例えば快適な刺激については、ますます要求するようになり、不快な刺激を多く受けると嫌悪や怒りが出やすくなり行動が変わってくる。
熟考的動作はトップダウン的な処理であり、一方、反射的動作はボトムアップ的な処理である。これらを階層構造で統合することで生き物らしい自然な振る舞いを実現する。

6.行動生成

産業用ロボットとペットロボットの大きな違いは、前者が位置精度や再現性などの物理的性能を重視しするのに対し、後者は変化する状況の中でいかに生き物らしい動作を実現し、その柔軟性や感情表出を重視するものである。動物行動学によると、動物の動作は心理に密接に関連しているとされ、本ロボットでは、猫の動物行動学の研究をもとに、感情モデルで生成される感情を動作に関連づけ、その動作を行動計画部と行動生成部の階層構造によって生成する。

6.1 行動計画部

感情や欲求の種類に応じた動作の形と、その遷移パターンを行動遷移ネットワークで表現する。動作の基本ポーズとしては、居眠り、伏せ、お座りの状態があり、基本ポーズに対する動きの派生として、周囲を見回す、顔を洗う、姿勢を直すなどのしぐさがある。これらの行動遷移は、現在のポーズと、感情や欲求によって、決定される。決定された行動の形を行動生成部に出力する。

fig3
図3. 行動遷移ネットワーク

6.2 行動生成部

行動生成部では、行動計画で決定された行動の形に従って動作を行えるよう、各モータの目標軌道を生成する。この時、感情の強さやその変化に応じて、動きの質を変化させることで、感情を表現する4)。すなわち、感情の強さや変化を動作の軌道(例えば直線的に動くか曲線的に動くか、すばやく動くかゆっくり動くか、繰り返し動作を何度行うかなど)に関連付け、目標軌道を生成する。同一の行動の形であっても感情の状態によって動きが変化し、生き物感を出す。
また、行動生成部では、反射的動作と熟考的動作の調整を行う。予め反射的動作と熟考的動作の優先順位づけ行っているが、反射動作に繋がる刺激の強度や、現在の感情の強度により優先順位は変更される。このように固定ではなく状況に応じて動きが決定されることが、生き物らしい行動表現に繋がる。

7.おわりに

本研究において、触覚・聴覚を中心とした認識センシング機能、感情や欲求を生成する感情生成機能、豊かな感情や欲求を表現できる行動生成機能を統合し、自律的に振る舞い、人とインタラクションできるペットロボットの基本構造を構築した。これらの技術の向上が“人に優しい機械”の実現に繋がり、家庭で楽しんだり、活躍するロボットの開発に繋がっていく。

参考文献
1)渋谷昌三:心理操作ができる本,pp118,三笠書房(1996)
2)H.Ushida, Y.Hirayama, and H.Nakajima: Emotion Model for Life-like Agent and Its Evaluation, Proc.of AAAI’98,pp.62-69(1998)
3)牛田博英、中嶋宏、平山裕司:感情推論モデルの実装と評価,OMRON TECHNICS,VOL38,NO3,pp79-85 (1998)
4)中田了、安田悦子、佐藤智正:ロボットの行動による人間への感情表現,第15回日本ロボット学会学術講演会予稿集,pp387-388(1997)
5)田島年浩、齊藤幸弘、大角雅治、工藤敏巳:感情をもったインタラクティブ・ペットロボット,第16回日本ロボット学術講演会予稿集 (1998)


ISA--Setting the Standard for Automation / ISA-J is the ISA Japan Section