Next: 多機能高精度視覚センサの開発
Up: 研究課題とアプローチの方法
Previous: 研究課題とアプローチの方法
現在本プロジェクトでは、分散協調視覚システムのためのハードウェア、ソフ
トウェア基盤として図4のようなシステムを設計、開発している。
- 観測ステーション:
-
本プロジェクトでは、多自由度カメラ雲台を備えた実時間3次元画像・映像処
理装置を1つの観測ステーションと考え、それらをネットワークで結合した
ものを分散協調視覚システムのハードウェア基盤とする。観測ステーションの
ハードウェア構成は次のようにする。
- カメラ:フォーカス、ズーム、アイリスが計算機制御可能な3CCDの計測用
TVカメラを基本とするが、後に述べる独自方式の実時間3次元距離計測カメラ
の搭載も考える。
- 多自由度カメラ雲台:後に述べる独自方式のものを設計・開発する。
- 実時間ビデオ入力装置:フルカラーのビデオ信号を非圧縮で実時間入力できる
ビデオキャプチャー・ボードを用いる。
- 計算機:PCやWSといった通常の計算機のほか、
DSPやSIMD型のLSIを用いた並列画像処理装置を利用し、実時間でのビデオ映像処理・
生成を行う。
- 実時間映像伝送・処理用超高速ネットワーク:
-
広場や交差点などのように、限られた空間内を多数の対象が移動する状況
では、観測ステーション群を超高速ネットワークで密結合し、ビデオ映像の実
時間伝送およびその並列処理を行う、並列・分散ネットワークシステムが有効
であると考えられる。現在、そのためのネットワーク装置としては、Myrinet
(1.28Gbps)を考えており、それによってPC(OSはUNIX)クラスタを形成し、
密結合観測ステーション群を実現する。PCクラスタおよび通
常のEther-Net LAN、移動ロボットとのコミュニケーション用無線LAN、さらに
は遠隔地に置かれた観測ステーションをつなぐATM LANを合わせたシステムの
全体的ネットワーク構成は図4のようになる。
- 並列・分散処理用ソフトウェア:
-
上記のように、分散協調視覚システムのハードウェア・プラットフォームには、
多様な処理装置が含まれ、それらのためのソフトウェアをいかに作成するかが
大きな問題となる。
- まず、DSPやSIMD型のLSIを用いた並列画像処
理装置は比較的単純な画像・映像処理を行えばよく、各装置の持つソフトウェ
ア開発環境を使って必要なプログラムを作成する。しかしながら、ビデオ映像
を実時間で処理できる並列処理アルゴリズムの考案・開発には、かなりの研究
が必要である。
- ソフトウェア開発上最も大きな問題となるのは、並列・分散処理用PCクラスタ
のソフトウェアである。この点については、次のように考えている。我々のシ
ステムとほぼ同じ構成を持ったPCクラスタが通産省のRWCプロジェクトでも設
置されており[5]、その上で動くMPC++[6](C++に並列処理、
通信機能を加えたプログラミング言語)処理系が作られている。本プロジェク
トでは、その処理系を用いて密結合観測ステーション群のソフトウェアを開発
することを計画している。また、必要であれば本プロジェクト独自の並列・分
散処理ソフトウェアの設計・開発を行う。
- 移動ロボットプラットフォーム:
-
本プロジェクトは、視覚に基づく観測ステーションと移動ロボット、移動ロボッ
ト同士のコミュニケーション、協調行動機能を強化学習によって獲得すること
を目指しており、そのための移動ロボットプラットフォームを作成する必要が
ある。当初は,まず視覚に基づく協調行動学習のシミュレーションによってそ
のアルゴリズムを考案する。次に、シミュレーションプログラムと実機ロボッ
トの駆動プログラムを共通化し、プログラム開発者が容易に実環境とシミュレー
ション環境で実験できる研究環境を整備する。
Figure 4: 分散協調視覚システムのハードウェア・ネットワーク構成