担当:松山 隆司,和田 俊和(京都大学)
本研究では,視覚・行動機能を備えた多数のエージェントがネットワークで互 いに結ばれたマルチエージェントシステムを対象に,視覚・行動・コミュニケー ション機能の統合による分散協調処理の実現を目指している.具体的には,先 に述べたパン・チルト・ズームカメラ(本報告書2.3.2)を備え た能動視覚システムをネットワーク結合し,下記の協調動作を行わせることに より,移動対象の継続的観測や広域シーンの状況認識・理解を実現することが 目的となる.
今年度の研究では,一つの対象に関する協同注視を行うシステムを状態遷移モ デルに基づいて設計・試作するとともに,システムの性能評価を定量的に行う ための分散協調視覚システムのシミュレーション・ソフトウエアを開発した. 具体的には,先に述べた能動視覚システム(本報告書 2.4)を観測ステーションとして4台ネット ワーク結合し,各観測ステーションにおける対象追跡モード(図 28参照.単独探索,単独 追跡,協調探索,協調追跡および注視対象のデータ管理を行うマスターの5つ のモードがある)をコミュニケーションによって切替える.このシステムによ り,図29,30に示すように,障害物が乱雑 に配置された広い空間を移動する対象を実時間で安定かつ継続的に追跡し,そ の3次元位置を計算できることが示せた(詳細は,本報告書 を参照).ここで,図29 における各列の画像は,それぞれ視点の異なるカメラで撮影された画像系列を 表し,縦軸を時間軸としたときの撮影時刻の位置に並べてある.
Figure 28: 協同注視のための観測ステーションの状態遷移図
Figure 30: 追跡対象の移動軌跡
Figure 29: 複数カメラによる観測画像の一部(1枚の画像の縦の長さが0.5秒に相当)