対話型知能ロボットを考える
ABCは知ってても
今回は対話ロボットについて考えてみます。今回のロボットも自律型ですから、構成は前回のものと良く似た形になります。
前回の図の「外部環境」のところに、カワイイ女の子のイラストがあります。これが「対話対象」です。ロボットはこの子と対話する訳です。
対話ロボットにも、もちろんのことミッションがあります。現在は、チケットを予約するとか道案内をするとかの情報型のミッションが多いのですが、対話で教示する作業ロボットのようなものも、これからの研究テーマになってくるものと思います。
前回同様、ロボットは相手を「観察」し、「人間の応答モデル」を使って、相手に適切な情報を「情報発信」します。このモデルは、例えば「おはようと挨拶をしたら、どのような反応が観察され、それぞれの反応はどういう意味か」のようなデータを集積したものです。これは、相手がどんなロジックで応答してくるかを記述したものといえるでしょう。もちろん、ロボットの観察の能力には制限がありますし、そもそも人間の思考ロジックの解明は出来ていない訳ですから、このモデルはかなり制約のあるものになると思います。
単純な物理現象を相手にする、作業ロボットと異なるのは、ロボットが対峙する人間もまた、ロボットの応答モデルを持っていて、これを使って反応してくるということです。
人間は「このロボットにこんなふうに話しかけたら、こういう反応をするのではないか」という予見をもってロボットに接し、ロボットが想定内の反応を示すことを期待するという傾向があるようです。そのとおりになると、コミュニケーションが成立していると感じ、トンチンカンな反応には不快感を感じます。さらに、トンチンカンな反応の比率が高いと、対話することにストレスを感じるようになります。
これに関して、もう一つ重要なことがあります。図を見ると、「観察」と「情報発信」の矢印が、人間側で太くなっています。これは、人間のその能力がロボットに比べて高いことを示しています。例えば、人間はロボットの姿形から相手の機能を推し量ることが出来ます。この図のような人間型ロボットなら、人間のように応答することを期待し、イヌ型のロボットなら、イヌのような応答を期待します。また、対話プロセスでも、テキスト情報のみに頼るのではなく、声の調子やテンポ、あるいは表情なども相手の発信ステータスとして活用するのは、誰しも心当たりのあることだと思います。
現在のところ、発表されているさまざまな対話ロボットを見ても、対話相手の「観察」能力は十分では無いように思います。まして、僕のようなアマチュアが製作するロボットではなおさらです。そのような制限のもと、対話ロボットが成功するかどうかは、このような人間側の特性を、理解し、上手に利用することが重要なのかもしれません。ロボット製作者はまさに「相手の立場に立って」ロボットをデザインする必要がある訳です。
« 知能ロボットを考える | トップページ | レーザー測域センサURG-04LXをROSで使う »
「ABCは知ってても」カテゴリの記事
- ことばでロボットを動かすこと(2014.03.03)
- 対話型知能ロボットを考える(2013.06.22)
- 知能ロボットを考える(2013.06.06)
- 新しいカテゴリーです(2013.03.23)
コメント