トップ :: B 処理操作 運輸 :: B25 手工具;可搬型動力工具;手工具用の柄;作業場設備;マニプレ−タ

【発明の名称】 コミュニケーションロボット
【発明者】 【氏名】神田 崇行

【氏名】今井 倫太

【氏名】小野 哲雄

【氏名】石黒 浩

【氏名】間瀬 健二

【要約】 【課題】人は違和感を覚えることなくコミュニケーションをすることができるロボットを提供する。

【構成】コミュニケーションロボット10は眼球部76R,76Lを含み、眼球部76R,76Lには眼カメラ46R,46Lが設けられる。眼カメラ46R,46Lから取得した画像中の人や特定の物などの物体位置が検出され、眼球部76R,76Lがその物体の方向に向くように変位される。したがって、コミュニケーションロボット10は、人と視線を合わせたり、あるいは物体方向を注視したりする格好となる。また、眼球部76R,76Lは、頭部42が動いているとき、頭部42が向こうとする方向に視線が向けられるなど頭部42の動きに関連して変位される。
【特許請求の範囲】
【請求項1】
コミュニケーションを図る機能を備えたコミュニケーションロボットであって、
眼球部、
対象とする物体を検出する物体検出手段、および
前記物体の方向に向くように前記眼球部を変位させる眼球部変位手段を備える、コミュニケーションロボット。
【請求項2】
胴体、前記胴体に首関節を介して取り付けられるかつ前記眼球部が設けられる頭部、および前記首関節を制御して前記頭部を変位させる頭部変位手段をさらに備え、
前記眼球部変位手段は前記頭部の動きに関連して前記眼球部を変位させる、請求項1記載のコミュニケーションロボット。
【請求項3】
前記眼球部変位手段は前記頭部の運動速度に比例する角度データに基づいて前記眼球部を変位させる、請求項2記載のコミュニケーションロボット。
【請求項4】
前記頭部変位手段は、前記頭部の正面側が前記物体の方向に向くように前記頭部を変位させる、請求項2または3記載のコミュニケーションロボット。
【請求項5】
前記物体は人の顔を含む、請求項1ないし4のいずれかに記載のコミュニケーションロボット。
【請求項6】
前記物体検出手段はカメラから得られる画像に基づいて前記物体を検出する第1検出手段を含む、請求項1ないし5のいずれかに記載のコミュニケーションロボット。
【請求項7】
前記物体検出手段は、前記コミュニケーションロボットの任意の箇所に設けられる複数のタッチセンサのうちオン状態の前記タッチセンサを前記物体として検出する第2検出手段を含む、請求項1ないし6のいずれかに記載のコミュニケーションロボット。
【発明の詳細な説明】【技術分野】
【0001】
この発明はコミュニケーションロボットに関し、特にたとえば、コミュニケーションを図る機能を備えたものであって、人の目ないし眼球に相当する部分すなわち眼球部を備えるコミュニケーションロボットに関する。
【背景技術】
【0002】
従来のロボットには、眼球部をたとえば左右に動かしたり回したりするなど、一定の意図を伝達するために眼球運動をさせるものがあった。
【発明の開示】
【発明が解決しようとする課題】
【0003】
しかしながら、従来技術では、単一の目的指向の眼球運動を機械的に行っているに過ぎず、生命感を創り出せなかった。したがって、コミュニケーションを図ろうとする人が違和感を覚えてしまって、コミュニケートしている感覚が阻害されてしまうおそれがあった。
【0004】
それゆえに、この発明の主たる目的は、違和感無くコミュニケーションを図ることができる、コミュニケーションロボットを提供することである。
【課題を解決するための手段】
【0005】
この発明は、コミュニケーションを図る機能を備えたコミュニケーションロボットであって、眼球部、対象とする物体を検出する物体検出手段、および物体の方向に向くように眼球部を変位させる眼球部変位手段を備える、コミュニケーションロボットである。
【0006】
眼を表すものと外観上認められる眼球部がたとえば目に相当する位置に設けられる。対象とする物体は物体検出手段によって検出される。たとえば、コミュニケーションロボットの適宜な箇所にはカメラが設けられており、第1検出手段は、カメラから取得した画像に基づいて画像中の物体を検出し、たとえばその位置や方位等を算出する。物体としては、たとえば人の顔や特定の物等が設定され得る。また、コミュニケーションロボットの任意の箇所に複数のタッチセンサが設けられる場合には、第2検出手段は、たとえば人によって触れられることによってオン状態となったタッチセンサを物体として検出する。そして、眼球部は、検出された物体の方向に向くように眼球部変位手段によって変位される。つまり、人の顔,特定の物体あるいは触れられた箇所等の方向に視線が向けられる。したがって、コミュニケーションロボットは、たとえば人と対話する場合などに、人と視線を合わせたり、あるいは話題とする特定の物体方向や触れられた部分を注視したりする格好となる。
【0007】
また、頭部を含んで構成される場合には、眼球部はこの頭部に設けられる。頭部は、頭に相当する部分であるため、たとえば胴体に首関節を介して取り付けられ、頭部変位手段によって変位される。頭部は、たとえば頭部の正面側すなわち顔が物体の方向に向くように変位され得る。また、眼球部は、眼球部変位手段によって、頭部の動きに関連して変位され得る。具体的には、たとえば頭部の運動速度に比例する角度データが算出され、この角度データに基づいて眼球部が変位されることによって、頭部が向こうとする方向に視線が向けられる。このように、眼球部は頭部が動作しているときその動きに応じた自然な眼球運動をすることができる。
【発明の効果】
【0008】
この発明によれば、人と視線を合わせたり、物体方向を注視したりすることができる。つまり、自然な目の動きでコミュニケーションを図ることができる。さらに、眼球部は頭部の動きに関連した眼球運動をすることができる。したがって、人と同じような極自然な眼の動きを伴ったコミュニケーションとなるので、人は違和感を覚えることなくコミュニケーションロボットとコミュニケーションをすることができる。
【0009】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【発明を実施するための最良の形態】
【0010】
図1は本発明の全体構成を示しており、同図を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は、台車12を含み、この台車12の下面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図4において参照番号「70」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサ(図4において、参照番号「74」で示す。)が取り付けられ、この衝突センサは、台車12への人や他の障害物の接触を検知する。そして、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪14の駆動を停止してロボット10の移動を急停止させて衝突を未然に防ぐ。
【0011】
なお、ロボット10の背の高さは、この実施例では、人、特に子供に威圧感をあたえることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。
【0012】
台車12の上には、多角形柱のセンサ取付パネル16が設けられ、このセンサ取付パネル16の各面には、超音波距離センサ18が取り付けられる。この超音波距離センサ18は、取付パネル16すなわちロボット10の周囲の主として人との間の距離を計測するものである。
【0013】
台車12の上には、さらに、下部が上述の取付パネル16に囲まれて、ロボット10の胴体が直立するように取り付けられる。この胴体は下部胴体20と上部胴体22とから構成され、これら下部胴体20および上部胴体22は、連結部24によって、連結される。連結部24には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体22の高さすなわちロボット10の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図4において参照番号「68」で示す。)によって駆動される。上で述べたロボット10の身長100cmは、上部胴体22をそれの最下位置にしたときの値である。したがって、ロボット10の身長は100cm以上にすることができる。
【0014】
上部胴体22のほぼ中央には、1つの全方位カメラ26と、1つのマイク28とが設けられる。全方位カメラ26は、ロボット10の周囲を撮影するもので、後述の眼カメラ46と区別される。マイク28は、周囲の音、とりわけ人の声を取り込む。
【0015】
上部胴体22の両肩には、それぞれ、肩関節30Rおよび30Lによって、上腕32Rおよび32Lが取り付けられる。肩関節30Rおよび30Lは、それぞれ3軸の自由度を有する。すなわち、肩関節30Rは、X軸,Y軸およびZ軸のそれぞれの軸廻りにおいて上腕32Rの角度を制御できる。Y軸は、上腕32Rの長手方向(または軸)に並行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。肩関節30Lは、A軸,B軸およびC軸のそれぞれの軸廻りにおいて上腕32Lの角度を制御できる。B軸は、上腕32Lの長手方向(または軸)に並行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。
【0016】
上腕32Rおよび32Lのそれぞれの先端には、肘関節34Rおよび34Lを介して、前腕36Rおよび36Lが取り付けられる。肘関節34Rおよび34Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕36Rおよび36Lの角度を制御できる。
【0017】
なお、上腕32Rおよび32Lならびに前腕36Rおよび36L(いずれも図1)の変位を制御するX,Y,X,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕32Rおよび32Lならびに前腕36Rおよび36Lは下方向に向けられる。
【0018】
また、図示しないが、上部胴体22の肩関節30Rおよび30Lを含む肩の部分や上述の上腕32Rおよび32Lならびに前腕36Rおよび36Lには、それぞれ、タッチセンサが設けられていて、これらのタッチセンサは、人がロボット10のこれらの部位に接触したかどうかを検知する。これらのタッチセンサも図4において参照番号72で包括的に示す。
【0019】
前腕36Rおよび36Lのそれぞれの先端には、手に相当する球体38Rおよび38Lがそれぞれ固定的に取り付けられる。なお、この球体38Rおよび38Lに代えて、この実施例のロボット10と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
【0020】
なお、ロボット10の形状・寸法等は適宜に設定されるが、他の実施例では、たとえば、上部胴体22は、前面,背面,右側面,左側面,上面および底面を含み、右側面および左側面は表面が斜め前方に向くように形成してもよい。つまり、前面の横幅が背面の横幅よりも短く、上部胴体22を上から見た形状が台形になるように形成されてもよい。このような場合、肩関節30Rおよび30Lは、右側面および左側面に、その表面が左右両側面とそれぞれ平行である左右の支持部を介して取り付けられる。そして、上腕32Rおよび上腕32Lの回動範囲は、これら左右側面または支持部の表面(取り付け面)によって規制され、上腕32Rおよび32Lは取り付け面を超えて回動することはない。しかし、左右側面の傾斜角,B軸とY軸との間隔,上腕32Rおよび32Lの長さ,ならびに前腕36Rおよび36Lの長さ等を適宜に設定すれば、上腕32Rおよび32Lは前方を越えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット10の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接なコミュニケーションを図ることができる。
【0021】
上部胴体22の中央上方には、首関節40を介して、頭部42が取り付けられる。この首関節40は、3つの自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部42には、人の口に相当する位置に、スピーカ44が設けられる。スピーカ44は、ロボット10が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。ただし、スピーカ44は、ロボット10の他の部位たとえば胴体に設けられてもよい。
【0022】
また、頭部42には、目に相当する位置に眼球部76Rおよび76Lが設けられる。眼球部76Rおよび76Lは、それぞれ眼カメラ46Rおよび46Lを含む。なお、右の眼球部76Rおよび左の眼球部76Lをまとめて眼球部76といい、右の眼カメラ46Rおよび左の眼カメラ46Lをまとめて眼カメラ46ということもある。眼カメラ46は、ロボット10に接近した人の顔や他の部分ないし物体等を撮影してその映像信号を取り込む。
【0023】
なお、上述の全方位カメラ26および眼カメラ46のいずれも、たとえばCCDやCMOSのように個体撮像素子を用いるカメラであってよい。
【0024】
たとえば、眼カメラ46は眼球部76内に固定され、眼球部76は眼球支持部(図示せず)を介して頭部42内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸(図2)の各軸廻りに角度制御可能である。α軸およびβ軸は頭部42に対して設定される軸であり、α軸は頭部42の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部42の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部42がホームポジションにあるとき、α軸はS軸に平行し、β軸はU軸に平行するように設定されている。このような頭部42において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部76ないし眼カメラ46の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される(図3)。
【0025】
なお、眼カメラ46の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ46のカメラ軸は頭部42の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
【0026】
図1に示すロボット10の制御系の構成が図4のブロック図に示される。図4に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU50を含み、このCPU50には、バス52を通して、メモリ54,モータ制御ボード56,センサ入力/出力ボード58および音声入力/出力ボード60が接続される。
【0027】
メモリ54は、図示しないが、ROMやRAMを含み、ROMにはこのロボット10の制御プログラムが予め書き込まれているとともに、スピーカ44から発生すべき音声または声の音声データが格納されている。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。
【0028】
モータ制御ボード56は、たとえばDSP(Digital Signal Processor)で構成され、各腕や頭部および眼球部等の各軸モータを制御する。すなわち、モータ制御ボード56は、CPU50からの制御データを受け、右肩関節30RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの軸Wの角度を制御する1つのモータとの計4つのモータ(図4ではまとめて、「右腕モータ」として示す。)62の回転角度を調節する。また、モータ制御ボード56は、左肩関節30LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節34LのD軸の角度を制御する1つのモータとの計4つのモータ(図4ではまとめて、「左腕モータ」として示す。)64の回転角度を調節する。モータ制御ボード56は、また、頭部42のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図4ではまとめて、「頭部モータ」として示す。)66の回転角度を調節する。モータ制御ボード56は、また、腰モータ68、および車輪14を駆動する2つのモータ(図4ではまとめて、「車輪モータ」として示す。)70を制御する。
【0029】
さらに、モータ制御ボード56は、右眼球部76Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて、「右眼球モータ」として示す。)78の回転角度を調節し、また、左眼球部76Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて、「左眼球モータ」として示す。)80の回転角度を調節する。
【0030】
なお、この実施例の上述のモータは、車輪モータ70を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ70と同様に、直流モータであってよい。
【0031】
センサ入力/出力ボード58も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU50に与える。すなわち、超音波距離センサ18の各々からの反射時間に関するデータがこのセンサ入力/出力ボード58を通して、CPU50に入力される。また、全方位カメラ26からの映像信号が、必要に応じてこのセンサ入力/出力ボード58で所定の処理が施された後、CPU50に入力される。眼カメラ46からの映像信号も、同様にして、CPU50に与えられる。なお、この図4では、図1で説明したタッチセンサは、まとめて「タッチセンサ72」として表され、それらのタッチセンサ72からの信号がセンサ入力/出力ボード58を介して、CPU50に与えられる。
【0032】
スピーカ44には音声入力/出力ボード60を介して、CPU50から、合成音声データが与えられ、それに応じて、スピーカ44からはそのデータに従った音声または声が出力される。そして、マイク28からの音声入力が、音声入力/出力ボード60を介して、CPU50に取り込まれる。
【0033】
この実施例のロボット10は眼球部76を備えており、人や物など対象とする特定の物体の位置を検知してこの眼球部76をその物体の方向を向くように変位させる。さらに、このロボット10では頭部42の動きに関連した眼球運動が行われる。
【0034】
たとえば、このロボット10では、眼カメラ46から取得した画像中に人の顔がある場合には、対象物体としての人の顔の位置が検出され、その方向に眼球部76および眼カメラ46を向けるためのα軸およびβ軸の制御角度データが算出される。この角度データが右眼球モータ78および左眼球モータ80に与えられると、眼球部76および眼カメラ46が変位されて視線方向が人の顔方向に向く。したがって、このロボット10は人と視線を合わせることができ、人は違和感を覚えることなくコミュニケートできる。
【0035】
また、頭部42が動作しているとき、たとえば首関節を制御する軸(S軸およびU軸)廻りの運動速度等に基づいてα軸およびβ軸の制御角度データを算出して、このデータによって眼球支持部を制御することもある。この場合には、頭部42の動きに合った眼球部76の動きを表すことができ、人が違和感を覚えるのを防止できる。
【0036】
また、このロボット10では、人の顔だけでなく、眼カメラ46から取得した画像中の特定物の位置も検出して、その方向に視線を向けることができる。つまり、たとえば壁等に貼ってあるポスター等の紹介をするような場合、ポスター等の紹介物の位置を検出して、これに顔を向ける動作を挟みつつ紹介を行うというような自然な動作を行うこともできる。
【0037】
具体的には、このロボット10はたとえば図5および図6に示すフロー図に従って動作する。このフロー図では、壁に設置されたポスター紹介を行う場合の動作の一例が示されている。
【0038】
まず、ステップS1からS5において、初期設定が行われる。ステップS1では、CPU50は、頭部42を前方に向けるように、メモリ54から角度データを取り出してモータ制御ボード56に送る。つまり、S軸,T軸およびU軸の回転角度を制御するモータ(頭部モータ66)にそれぞれ角度「0」を与える。したがって、このステップS1では、頭部42が正面を向く。ステップS3では、CPU50は、眼球部76を正面に向けるように、メモリ54から角度データを取り出してモータ制御ボード56に送る。つまり、α軸およびβ軸の回転角度を制御するモータ(右眼球モータ78および左眼球モータ80)にそれぞれ角度「0」を与える。したがって、このステップS3では、眼球部76および眼カメラ46が正面を向き、視線が正面を向いた正視状態となる。ステップS5では、変数t1,t2およびt3に現在の時刻の値が設定される。なお、図示は省略しているが、変数cも初期設定として1より小さい値が設定される。
【0039】
続くステップS7で、CPU50は、眼カメラ46からの映像信号をセンサ入力/出力ボード58に取り込み、ステップS9では映像信号処理することによって、カメラ画像中に人の顔があればその位置を検出する。なお、人の顔の決定手法としては種々の方法が用いられ得るが、たとえば肌色部分を人の顔であると決めるようにしてもよい。また、たとえば、予めメモリ54に特定の人の顔または特徴等のデータを記憶しておき、このデータを参照することによってこの特定人物に対してだけ視線を合わせるようにしてもよい。
【0040】
ステップS11では、時刻t1から一定時間が経過し、かつ、人の顔が画像中にあるかどうかを判断する。ステップS11で“YES”であれば、ステップS15で、CPU50は、検出された人の顔の位置の方向に該当するα軸およびβ軸の角度データを算出し、この角度データをモータ制御ボード56に送る。右眼球モータ78および左眼球モータ80にはそれぞれ算出されたα軸およびβ軸の制御角度が与えられる。したがって、このステップS15では、視界に人がいれば、眼球部76が人の顔方向に向けられ、人とロボット10は視線を合わすことができる。
【0041】
続くステップS17では、変数t1に現在時刻が設定され、このステップS17の後はステップS25へ進む。このように、ステップS15の処理が実行されて人の顔方向に視線が向けられると、変数t1が現在の時刻に再設定されるので、その後一定時間が経過するまでは、このステップS15の処理は実行されない。
【0042】
一方、ステップS11で“NO”であれば、つまり、時刻t1から一定時間がまだ経過していない場合、または、画像中に人の顔がない場合には、CPU50は、ステップS13で、時刻t2から一定時間が経過し、かつ、頭部モータ66のうちS軸またはU軸の回転角度を調整するモータが動作中であるかどうかを判断する。
【0043】
ステップS13で“YES”であれば、ステップS19で、動作しているS軸およびU軸の運動速度VsおよびVuを検出し、この運動速度VsおよびVuに基づいてα軸およびβ軸の制御角度データを算出する。具体的には、α軸の回転角度はS軸の運動速度Vsに比例する値(aVs)に設定され、β軸の回転角度はU軸の運動速度Vuに比例する値(bVu)に設定される。ここで、aおよびbは定数であり、適宜に設定される。そして、この角度データをモータ制御ボード56に送って、α軸の回転角度を制御するモータに角度「aVs」を与え、β軸の回転角度を制御するモータに角度「bVu」を与える。すると、α軸およびβ軸はそれぞれS軸およびU軸に対応しているので、眼球部76は頭部42の移動方向すなわち頭部42の顔が向こうとする方向に向けられる。このようにして、頭部42を動かすときは、その移動する方向に視線が向けられ、頭の動きに応じた極自然な眼球運動を実現することができる。この実施例では、具体的には、後述するステップS35およびステップS39の処理によって頭部42が動作するときに、このような眼球運動が実現される。続くステップS21では、変数t2に現在時刻が設定され、このステップS21の後はステップS25へ進む。このように、変数t2が現在の時刻に再設定されるので、その後一定時間が経過するまでは、このステップS19の処理は実行されない。
【0044】
他方、ステップS13で“NO”であれば、つまり、時刻t2から一定時間が経過していない場合、または、S軸およびU軸の回転角度を調整するモータがいずれも動作中でない場合には、続くステップS23で、CPU50は、眼球部76を正面に向けるように、メモリ54から角度データを取り出してモータ制御ボード56に送る。つまり、α軸およびβ軸の回転角度を制御するモータ(右眼球モータ78および左眼球モータ80)にそれぞれ角度「0」を与える。したがって、このステップS23では、眼球部76および眼カメラ46が正面に向けられる。すなわち、たとえばステップS15やステップS19等で動かされた視線が正面に戻されることとなる。
【0045】
ステップS17,S21またはS23の処理を終えると、CPU50は、続くステップS25で、時刻t3から一定時間が経過したかどうかを判断する。ステップS25で“NO”であればステップS7に戻る。したがって、時刻t3から一定時間が経過するまでは、ステップS7からステップS25までの処理が繰り返し実行される。一方、ステップS25で“YES”であれば、図6のステップS27へ進む。
【0046】
ステップS27で、CPU50は変数cが1以上であるかどうかを判断する。ステップS27で“NO”であれば、つまり、変数cが1より小さければ、ステップS31へ進む。ステップS31では、CPU50は、眼カメラ46からの映像信号をセンサ入力/出力ボード58に取り込み、ステップS33では映像信号処理することによって、カメラ画像中から壁のポスターの位置を検出する。なお、ポスターの特徴等のデータは予めメモリ54に記憶しておき、このデータを参照することによってポスター位置を検出する。
【0047】
なお、この実施例ではロボット10の視界内にポスターが設置されている場合を想定しているが、ポスターがステップS31で取得した画像中にない場合は、たとえばステップS35およびS37の処理を飛ばして進むようにしたり、あるいは頭部42を動かして周囲を走査しポスターを発見するようにしたりしてもよい。
【0048】
ステップS35では、CPU50は、検出されたポスターの位置の方向に該当するS軸,T軸およびU軸の角度データを算出し、このデータをモータ制御ボード56に送る。したがって、ステップS35では、頭部42の正面側(顔)がポスターのある方向に向けられ、ロボット10はポスターを注視しているような格好となる。
【0049】
そして、ステップS37では、変数t3が現在時刻に設定され、また、変数cが1に設定される。このステップS37の後は、図5のステップS7に戻り、処理が繰り返される。このように、変数t3が現在の時刻に再設定されるので、その後一定時間が経過するまでは、ステップS27以降の処理は実行されない。また、変数cが1に設定されるので、次にステップS27が処理されるときは、“YES”と判断されてステップS29へ進むこととなる。
【0050】
一方、ステップS27で“YES”であれば、ステップS29で変数cが2以上であるかどうかを判断する。ステップS29で“NO”であれば、つまり、変数cが1以上2未満であれば、ステップS39へ進む。ステップS39では、CPU50は、頭部42を上にむけるように、メモリ54から角度データを取り出してモータ制御ボード56に送る。つまり、S軸およびT軸の回転角度を制御するモータにそれぞれ角度「0」与え、U軸の回転角度を制御するモータに角度「45」を与える。したがって、このステップS39では、ポスター方向に向けられていた頭部42が前方斜め上方向に向き直されて、仰ぎ見るような格好となる。なお、この格好は、たとえば人が予めロボット10の前方に誘導されているような場合等を想定した動作である。
【0051】
そして、ステップS41で、CPU50は、メモリ54から所定の音声データを取り出して音声入出力ボード60に送る。したがって、スピーカ44からたとえば「ポスター見てね」といった合成音声が出力される。このように、特定の物体に関係する合成音声を出力することで人と対話することができ、また、頭部12や眼球部76の動きの意味合を伝達することができる。
【0052】
このようにして、紹介の対象物であるポスターに対して顔を向ける動作(ステップS35)といった極自然な動作を挟みつつ、人と対話することができる。なお、近くに人がいない場合であっても、このような人を勧誘する動作や音声を発する動作等(ステップS39およびS41)によって人が近づいてくるのを期待できる。
【0053】
続くステップS43では、変数t3が再び現在時刻に設定され、また変数cが2に設定される。このステップS43の後は、図2のステップS7に戻り、処理が繰り返される。このように、変数t3が現在の時刻に再び設定されるので、その後一定時間が経過するまでは、ステップS27以降の処理は実行されない。また、変数cが2に設定されるので、次にステップS29を処理するときは、CPU50は“YES”と判断し、この頭部42および眼球部76の動作処理を終了する。なお、このような図5および図6の一連の動作処理はたとえば所定時間経過ごと等に繰り返し実行されてよいのは言うまでもない。
【0054】
この実施例によれば、人と対話する際などに、人と視線を合わせたり、話題にする特定の物体方向を注視したりすることができる。つまり、自然な目の動きでコミュニケーションを図ることができる。さらに、眼球部76は頭部42の動きに関連した眼球運動をすることができる。したがって、人や動物等と同じような極自然な眼の動きを伴ったコミュニケーションとなるので、人は違和感を覚えることなくロボット10とコミュニケーションをすることができる。
【0055】
なお、この発明の実施の形態は種々に変更して適用されてもよい。たとえば、上述の実施例では、ステップS35で頭部12を変位させてポスターに顔を向けるようにしているが、ポスターには眼球部76のみを向けるようにしてもよい。
【0056】
また、上述の各実施例では、ステップS39で、前方斜め上方のように所定方向に頭部42の顔を向けるようにしているが、たとえばステップS7,S9およびS35と同様な処理を実行することで、人の顔の位置を検出してその顔方向に頭部42の顔を向けるようにしてもよい。
【0057】
また、上述の各実施例では、ロボット10の視界内に人がいる場合等を想定しているが、たとえば、ステップS7を処理する前に、頭部42を動かして周囲を走査して人を発見するようにしてもよいし、あるいは周囲を見回しても人がいない場合等には、ステップS41と同様にして、予め合成音声等を発することで人を近くまたは視界内に呼び寄せるようにしてもよい。なお、人を呼び寄せるための行動としては、たとえば光を発するなど他の方法を適用してもよい。
【0058】
また、その他の実施例では、たとえば、人によって触られた場合に、オン状態のタッチセンサ72を検知して触られた箇所の位置を算出し、必要な角度データを必要なモータにそれぞれ与えて頭部42および眼球部76を適宜動かして、その方向に視線を向けるようにしてもよい。すなわち、オン状態のタッチセンサ72を物体として検出し、その物体の方向に向くように眼球部76および頭部12等の変位制御をするようにしてもよい。この場合にも、上述の各実施例と同様に、頭部42の動作に関連して眼球部76を動かすことができ、また、極自然な眼球運動を行うことができるので、人に違和感を覚えさせない。
【0059】
また、触れられた箇所に目を向けるにあたっては、たとえば、現在の目の位置と触れられた位置との関係から、頭部42と眼球部76とで動く距離(角度)を分担し、全体として触れられた位置の方向に視線を向けるように、頭部42および眼球部76を変位させるようにしてもよい。具体的には、触れられた箇所までの距離を算出し、たとえばその距離の半分までは頭部42を動かし、残りの半分は眼球部76を動かすようにする。このような眼球運動も頭部42の動きに関連した自然なものであり、人に違和感を生じさせない。
【0060】
なお、触れられた箇所に頭部42を向ける技術は、本願出願人による特許願2001−166018号に詳述されるので参照されたい。
【0061】
また、上述の各実施例では、左右の眼球部76の制御にあたって、左右それぞれの眼球モータに同じ角度データを与えて両目を揃えて動かすようにしているが、別個の角度データをそれぞれ算出して与えることにより左右の眼球部76を別々に動かすようにしてもよい。また、場合によっては、1つの眼球モータで左右の眼球部76を同時に動かすようにしてもよい。
【0062】
また、上述の各実施例では、人と同様に眼球部76を左右2つ設けるようにしているが、眼球部76は目に相当する部分であると外観上認識できるものであれば良く、したがって、眼球部76の数は任意であり適宜変更され得る。また、同様に、眼カメラ46の数も適宜変更され得る。
【0063】
また、上述の各実施例では、眼カメラ46からの画像を基に人やポスター等の物体の位置を検出しているが、可能であれば全方位カメラ26からの画像を用いて物体の位置を検出するようにしてもよい。
【0064】
また、上述の各実施例では、物体の位置を検出して眼球部76または頭部12の変位制御を行うようにしているが、たとえば、物体の方位を検出したり、画像の時間差分が生じた領域(移動していそうな物体が存在すると考えられる。)を検出したりすること等によって、物体を検出して、そこを向くように眼球部76または頭部12等の変位制御を行うようにしてもよい。
【0065】
また、上述の各実施例では、眼球部76は眼カメラ46を含んで構成されたが、場合によっては、眼カメラ46は頭部42の他の部分等の眼球部76以外の部分に設けられてもよい。この場合は、眼球部76はカメラがないため視覚器ではなくなり、見かけ上の眼を表す部分ないしダミーとなるが、眼球部76は目に相当する位置に設けられて、ロボット10の眼であると外観上認識されるように構成されているので、ロボット10とコミュニケートする人にとっては特には問題ないであろう。
【0066】
なお、上述の各実施例では、物体に目や顔を向けるのみであったが、場合によってはたとえば腕部分等を用いて物体方向を指すなどの動作を目の動きと組み合わせるようにしてもよい。つまり、右腕モータ62および左腕モータ64等の適宜な軸のモータに対して必要な角度データを与えることによって、たとえばポスター等の物体の方向を前腕の先端部(手)で指し示すような紹介動作等をさらに組み合わせて行うようにしてもよい。
【図面の簡単な説明】
【0067】
【図1】この発明の一実施例の全体構成を示す正面図である。
【図2】図1実施例の頭部を拡大して示す正面図である。
【図3】図1実施例の眼球部の変位を示す正面図である。
【図4】図1実施例を示すブロック図である。
【図5】図1実施例における動作の一部を示すフロー図である。
【図6】図1実施例における動作の他の一部を示すフロー図である。
【符号の説明】
【0068】
10 …コミュニケーションロボット
20 …下部胴体
22 …上部胴体
40 …首関節
42 …頭部
46,46R,46L …眼カメラ
50 …CPU
54 …メモリ
56 …モータ制御ボード
58 …センサ入出力ボード
60 …音声入出力ボード
66 …頭部モータ
76,76R,76L …眼球部
78 …右眼球モータ
80 …左眼球モータ
【出願人】 【識別番号】393031586
【氏名又は名称】株式会社国際電気通信基礎技術研究所
【出願日】 平成19年8月30日(2007.8.30)
【代理人】 【識別番号】100090181
【弁理士】
【氏名又は名称】山田 義人


【公開番号】 特開2008−18529(P2008−18529A)
【公開日】 平成20年1月31日(2008.1.31)
【出願番号】 特願2007−223709(P2007−223709)