next up previous contents
Next: 多重画像の統合による多機能高精度視覚センサの開発 Up: 分散協調視覚システムのためのハードウェア,ソフトウェア基盤の構築 Previous: IMAP-VISIONを用いた実時間オプティカルフロー計算ソフトウェアの開発

移動ロボットプラットフォームの開発

担当:浅田 稔,細田 耕,鈴木 昭二(大阪大学)

本プロジェクトでは,視覚機能を備えた移動ロボット同士および,それらと環 境に埋め込まれた観測ステーションとの間におけるコミュニケーション方式の 検討や協調処理の実現を研究目標としている.

本研究では,移動ロボットプラットフォームの開発を目指して,カメラ搭載型 移動ロボットおよびその制御システムを開発している.昨年度は,1台のワー クステーションで2台のロボットを制御する集中型システムを開発したが,本 年度は各ロボット毎に独立した計算機を用いた分散型システムを開発した.

ロボット本体は昨年度と同様,市販のラジコン自動車を使用し,これにCCDカ メラとUHF画像送信機を搭載している(図12).画像処理お よび移動の制御はロボットの外部に置かれたホストコンピュータ上で行う.

   figure375
Figure 12: 移動ロボットプラットフォーム

   figure383
Figure 13: ロボットコントローラの構成

ロボットの制御システムは図13の通り構成される.以下に各部 の概略を記す.

チューナー:
ロボット上の画像送信機はUHF帯の電波により画像を送信する. チューナーでこれを受信し,得られた画像を画像処理ボードへ入力する.
画像処理ボード:
ホストコンピュータ上で使える市販の画像処理ボードを用途に応じて選択する. 現在のシステムでは富士通のカラートラッキングボードを使用しているが, 本プロジェクトで開発している実時間ビデオ映像処理装置も使用する予定で ある.
ホストコンピュータ部:
ホストコンピュータにはIBM-AT互換PCを利用 する.ラジコンインターフェース部に対してはパラレルI/Oを通じてロボッ トの動作指令を伝達する. 画像処理およびロボットの行動を決定するプログラ ムはここで実行される.現在のシステムではWindows95上でプログラムの開 発と実行を行っているが,Linux, VxWorks等を利用することも可能である.
制御信号生成部:
UPPデバイスを搭載したV25CPUボードにより構成されている. ホストコンピュータからの動作指令に応じてラジコン制御用の信号を生成する.
制御信号送信機:
制御信号生成部で生成された信号をラジコンに送信しロボットの移動を制 御する.

   figure394
Figure 14: 情報の流れ

画像処理およびロボットの行動を決定する処理はホストコンピュータ上で実行 できるようにユーザが作成しなければならない.この時,ロボットの行動を決 定する処理は,画像を入力としロボットに対する動作指令を出力するように記 述する必要がある.ロボットと制御システムおよびユーザのプログラムの関係 は図14に示す通りである.

このシステムでは,以下の部分をユーザが用途に応じて自由に変更することが できる.

  1. 画像処理ボードおよび画像処理のプログラム
  2. ロボットの行動を決定する方針およびアルゴリズム
  3. ホストコンピュータのプロセッサとオペレーティングシステム

したがって,本プロジェクトで開発中の画像処理装置や様々な画像処理アルゴ リズムの検証を移動ロボットの制御を通じて行うことが可能となる.また,現 在は,ロボット上に搭載された一台のカメラから画像を得ているが,これを環 境内に設置された複数のカメラ画像を利用するように拡張することも容易であ る.さらに,今後は画像処理・制御システムを全てオンボードに搭載した独立 型移動ロボットプラットフォームの開発も行う予定である.