ここで述べる「協同注視システム」とは,ネットワークで接続された複数の 「能動視覚エージェント」が,各々の知覚結果を相互に交換し合うことによっ て,各エージェントに搭載されたカメラの視線方向をコントロールしながら, 実空間中に存在するある1つの対象を同時に観測するシステムである.このよ うにして撮影された多視点の画像から,対象の3次元位置,形状を求めたり, 動作の認識などを行うことが可能である.また,多視点画像を用いていること から,対象が他の物体の背後に隠れる場合や能動カメラの死角に移動した場合 にも対象を観測し続けることができるという利点もある.
能動視覚エージェントは,知覚,行動,コミュニケーションの3つの機能 モジュールによって構成される.これらのモジュールは,例えば,知覚を行う ために行動モジュールのカメラパラメータを参照する等,他のモジュールの内 部状態を参照して動作する.しかし,各モジュールが動作している間にもそれ らの内部状態は変化してしまうため,各モジュールの内部状態間の整合性を保 つことが困難であるという問題がある.
この問題点を解決するため,1)時間的に変化する値の書き込み,2)時刻を指定 した値の読み出し,の2つの機能を持つ「ダイナミックメモリ」を用いた能動 視覚エージェントの構成法を提案する.ダイナミックメモリは,時間拡張され た共有メモリである.各機能モジュールはダイナミックメモリに自分の内部状 態を時間の関数として書き込み,他のモジュールの内部状態を参照する場合は, 時刻を指定して読み出しをする.これによって,各機能モジュールはモジュー ル性と,固有のダイナミクス(時間的動作特性)を保ったままスムーズに動作 することができる.
複数の能動視覚エージェントによる協同注視システムを構築する場合,「他の エージェントが知覚した対象と自分が知覚した対象が同一であるか否か」とい う対象の同一性を判断しなければならない.これは,2つのエージェントの視 点から3次元空間中の対象に至る2直線間の近接性を評価することによって,判 断することができる.3次元空間中の対象の位置は時刻とともに変化し得るた め,知覚の同時刻性が前提となる(図2.23).しかし, 各エージェントが対象を撮影する物理的時刻を完全に揃えることは困難であり, このような同期撮影を前提にすることは,エージェントの自律的動作の妨げに なる可能性もある.
このような知覚時刻の同期を実現するためにも,前述のダイナミックメモリを 利用することができる.すなわち,あるエージェントが予測した対象の移動経 路をメッセージとして他のエージェントに送り,このメッセージを受信したエー ジェントは,自分のダイナミックメモリにその内容を書き込み,ダイナミック メモリ上で時刻を合わせた上で,自分の知覚結果との比較を行い,対象の同一 性を判定するのである(図2.24).このように,知覚時 刻が異なっていても,対象の運動を予測することによって,2つの知覚の時刻 を仮想的に同期させ,これらを比較することを「仮想同期」と呼ぶ.この仮想 同期を行う場合には,対象の3次元的な運動の予測を行うこともできるため, カメラ運動の遅れや対象の運動を考慮した最適なカメラワークを実現すること もできる.
本研究では,ダイナミックメモリを用いて上述の仮想同期を実現し,同じ動き をする移動ロボットに対する協同注視を行う際に,仮想同期を行うか行わない かで,求められるロボットの3次元位置の軌跡にどのような変化が現れるかを 実験により確認した(図2.25).を比較した.この結果,仮想 同期を行う場合の方が,得られる対象位置の精度が非常に高いことが確認でき た.また,図2.26に示す観測画像の比較からも,仮想同期を行 う場合の方が,対象をより画像中央付近で観測していると言えることが確認で きた.