学位論文要旨



No 113473
著者(漢字) 松本,吉央
著者(英字)
著者(カナ) マツモト,ヨシオ
標題(和) ビューベーストアプローチによる移動ロボットの経路誘導に関する研究
標題(洋)
報告番号 113473
報告番号 甲13473
学位授与日 1998.03.30
学位種別 課程博士
学位種類 博士(工学)
学位記番号 博工第4191号
研究科 工学系研究科
専攻 情報工学専攻
論文審査委員 主査: 東京大学 教授 井上,博允
 東京大学 教授 田中,英彦
 東京大学 教授 武市,正人
 東京大学 教授 三浦,宏文
 東京大学 教授 佐藤,知正
内容要旨

 これまでのロボットはごく限られた環境でしか実用化されておらず,今後はより高度な認識および行動能力を持つロボットが,その適用範囲をオフィスや家庭など人間の生活する環境にまで広げて行くことが求められている.ロボットの行動のためには,外界の情報をセンサから獲得し,自己位置や周囲の状況を認識する必要がある.外界の認識には,人間の場合と同様に視覚が最も重要な役割を果たしうると考えられ,コンピュータビジョンの分野では,以前から視覚(2次元画像)を用いた3次元情報の認識アルゴリズムの研究が盛んに行われてきた.しかし一般にこのアプローチは不良設定問題を含み,計算量が大きく実時間性を確保することが難しいだけでなくキャリブレーション誤差やノイズに弱い.

 このような背景から,近年3次元情報を用いずに2次元画像をそのまま認識に用いる"ビューベースト"と呼ばれるアプローチが注目されている.このアプローチは,あらかじめ認識対象の様々な見え方を記憶し,画像の照合により認識を実現するというものである.線分抽出,領域分割,3次元情報の復元といった画像の解釈は行なわず,従来のアプローチよりも2次元画像をより直接的に利用する.3次元モデルを必要としないため,実環境の複雑な対象の認識にも適用することができると期待される.本研究では,このビューベーストアプローチに基づき,新たな移動ロボットのための環境表現およびそれを用いたナビゲーション手法を提案し,実環境での走行を実現することを目的とする.

 本論文は全9章から構成される.以下に各章の概要について述べる.

 第1章「序論」では,本研究の背景と目的,および本論文の構成について述べる.

 第2章「移動ロボットにおける視覚に基づく環境認識」では,まず従来の視覚を持つ移動ロボットの研究の流れについて考察し,これまでの移動ロボットのために提案された地図および経路表現における問題点を整理する.次に近年コンピュータビジョンの分野で注目されている,3次元情報を用いずに2次元画像をそのまま認識に用いる"ビューベーストアプローチ(見え方に基づく方法)"について検討し,移動ロボットのためのビューの記憶に基づく環境認識手法を提案する.ビューの記憶に基づく環境認識という考え方は,本研究を通して一貫して用いられるものであり,ここではこのアプローチで鍵となる「どのようなビューを記憶するか」「どのような照合(マッチング)の手法を用いるか」について検討する.

 第3章「視覚を有する移動ロボットの開発」では本研究で用いる屋内実験用と屋外実験用の2台の移動ロボットの概要,およびそれらを構築するにあたり開発した以下の2つの技術について述べる.一つは,ロボットの共通のカーネル部分と個々のロボットに依存する部分に切り分け,カーネル部分を標準化することで,実験用ロボットおよびソフトウェアの開発およびメンテナンスを効率的に行なうことができるようにすることを目的としたPCベースの知能ロボット汎用カーネルである.もう一つは,コンパクトなステレオ視覚システムを実現するためのフィールド多重化である.これは,2つのビデオ信号をフィールド(1/60s)毎に切替えることで1つのビデオ信号に合成し,画像処理システムに入力する手法である.これにより通常の単一の画像処理システムにステレオ画像を入力し立体視等の処理を行なうすることが可能となり,移動ロボットに搭載できるコンパクトで高度な視覚を実現できる

 第4章「ビューシーケンスに基づく経路誘導」では,移動ロボットのためのビューベーストアプローチに基づく経路表現として"ビューシーケンス"を提案し,ロボットの経路誘導を行なう手法について述べる.これまでの移動ロボットの研究においても,経路の見え方を記憶や学習に利用している例はあったが,本手法ではリアルタイムに経路上のどこにいるのかを認識し,同時に誘導を実現することを可能とした.経路モデルとしては,ビューシーケンス(走行時に見える進行方向の視野全体の画像の列)を用い,画像のマッチングには,ハードウェアによる高速なテンプレートマッチングを利用する.走行時には,記憶したビューシーケンスと現在のビューのマッチングにより環境認識を行ない,1)明るさなど,環境の見え方が時間によって大きく変化しない,2)カメラの視野に,ある程度近くまでの走行環境(床,壁など)がうつっている,という条件を満たす建物内等の環境において,1)経路上の自己位置および障害物の認識と走行制御が実時間で可能,2)一回の記録走行により容易に経路教示が行なえる,という特徴がある.

 第5章「全方位ビューシーケンスに基づく経路誘導」では,前章で提案したビューシーケンスの問題点として1)一方向(片道)の経路しか表現できない,2)環境の変化が大きくなるとマッチングに失敗しやすい,3)経路への追従性が低い,という点を挙げ,これらを解決するために,全方位視覚センサを利用して生成する経路表現"全方位ビューシーケンス"を提案する.

 全方位視覚センサとしては回転双曲面鏡を用いる.得られた画像は円筒面状のパノラマ画像に変換され,テンプレートマッチングを用いてマッチングが行なわれる.全方位ビューシーケンスはロボットの周囲360度の情報を含んでいるため,一つの経路表現で双方向の移動が可能となる.また,これまでのビューシーケンスよりも視野が広いために含まれている情報が多く,環境の変化に強いマッチングを実現できる.さらに,全方位視覚センサを用いて複数(例えば前方と後方の2つ)のマッチングを行なうことで,複数のカメラを持つのと同じ効果が得られため,定性的な制御方法でもこれまでより正確な誘導を行うことが可能となる.

 第6章「自律的な走行環境の獲得」では,ロボットが視覚により自律的に環境を動き回り,建物内の環境表現(地図)を獲得する手法について述べる.前章までで述べた経路誘導の手法では,あらかじめオペレータが何らかの形でロボットを移動させることで経路のビューを教示する必要があった,また,ある地点からある地点までの経路を教示するのは容易であるが,建物全体の地図を作成するのは手間がかかる作業であった.しかし,ロボットが自律的に環境を動き回ることができれば,自動的に地図を生成することが可能となる.

 ここでは,まずはじめに両眼立体視や全方位画像上のオプティカルフローにより実現した,走行可能な空間を検出する手法について述べる.この機能を用いてロボットは建物内の自律移動を行ないながら,同時に全方位ビューシーケンスを記憶していくことで,建物内の環境全体の地図を獲得する.地図を獲得した後には,ロボットはゴールを指示されると獲得した地図から経路を生成して,自律走行することが可能となる.

 第7章「仮想環境を用いたビューシミュレーション」ではグラフィックスワークステーションと画像処理システムを組み合わせて開発した,見え方を利用する移動ロボット用のシミュレータについて述べる.

 通常の移動ロボットのシミュレータでは,環境は2次元平面上に表現され,ロボットの認識はその平面上の幾何情報を得ることでシミュレートされる.しかし本研究ではビューベーストアプローチにより,ロボットは環境の幾何情報を介しないで環境のビューを直接利用してロボットの行動を実現しており,これまでのシミュレータで行動をシミュレートすることができない.

 そこで,本章ではグラフィックスワークステーションを用いてビューを生成し,画像処理システムを用いてその画像を処理して仮想的な行動を行ない,ビューを更新する,という処理ループを持つ視覚移動ロボット用のシミュレータ"ビューシミュレーションシステム"の構築と評価実験について述べる.次に仮想環境内で教示走行を行なうことで,実際の教示なしに実ロボットが経路を計画しながら走行を行なうことが可能となることを示し,最後にロボットが見え方を想像しながら行動する"オンラインビューシミュレーション"という概念を提案する.

 第8章「屋外環境における経路誘導への展開」では,屋外のように明るさが変化する環境でも経路誘導を実現することを目指し,ビューベーストアプローチにおけるビューの概念を拡張する.前章までの経路表現で用いていた濃淡画像というビューは,明るさの変化に弱いという欠点があった.そこで,濃淡画像よりも明るさの変化に強い画像をビューとして利用することを試みる.

 具体的には微分画像,色相画像,両眼の視差画像等をビューとして利用する.これらの画像は線分抽出,領域分割,3次元情報の復元といった画像の解釈を行なわないというビューベーストアプローチの基本的な考え方に沿ったものである.本章では,これらのビューを用いることで屋外の経路誘導を実現し,ビューベーストアプローチの可能性を示す.

 第9章「結論および考察」では,これまでの各章で展開した議論を総括し,結論を示す.また本研究の成果と問題点について考察し,ビューベーストアプローチの今後の展開について議論する.

 本研究で開発したビューに基づきロボットの経路誘導を行なう手法は,近年のコンピュータの処理速度や記憶容量の向上により実現した.本手法は,従来の認識処理のように抽象化したモデルを用いずに,ビューをそのまま記憶するという点で,より実環境に対応しやすいと言え,今後のロボットの適用範囲を広げることに貢献すると考える.

審査要旨

 本論文は、「ビューペーストアプローチによる移動ロボットの経路誘導に関する研究」と題し、あらかじめ記憶した認識対象の様々な見え方と走行中の画像の照合により外界認識を実現するというビューベーストアプローチに基づいて、移動ロボットのためのビューの記憶による環境表現とナビゲーション手法を提案し、実環境における実時間視覚誘導の移動ロボットシステムとして実現した研究をまとめたものであり、9章からなっている。

 第1章「序論」では、本研究の背景と目的、および本論文の構成について述べている。

 第2章「移動ロボットにおける視覚に基づく環境認識」では、まず視覚を持つ移動ロボットの研究の流れについて考察し、これまで移動ロボットのために提案された地図および経路表現における問題点を整理し、移動ロボット用のビューの記憶に基づく環境表現と認識の新手法を提案している。ビューの記憶に基づく環境認識という考え方は、本研究を通して一貫して用いられるものであり、このアプローチで鍵となる「どのようなビューを記憶するか」「どのような照合(マッチング)の手法を用いるか」について考察している。

 第3章「視覚を有する移動ロボットの開発」では、本研究で用いる屋内実験用と屋外実験用に開発した2種類の移動ロボットの概要と、それを構築するために著者が開発した2つの技術、即ち、実験用ロボットおよびソフトウェアの開発およびメンテナンスを効率的に行なうこと可能とするPCベースの知能ロボット汎用カーネル、及び、コンパクトなステレオ視覚システムを実現するためのフィールド多重化について述べている。

 第4章「ビューシーケンスに基づく経路誘導」では、経路モデルとしてビューシーケンス(走行時に見える進行方向の視野全体の画像の列)を用い、画像のマッチングにはハードウェアによる高速なテンプレートマッチングを利用することにより、リアルタイムに経路上のどこにいるのかを認識し、同時に誘導を実現することを可能とした。本手法は、走行時には記憶したビューシーケンスと現在のビューのマッチングにより環境認識を行なうもので、1)明るさなど、環境の見え方が時間によって大きく変化しない、2)カメラの視野に、ある程度近くまでの走行環境(床、壁など)が写っている、という条件を満たす建物内等の環境において、1)経路上の自己位置および障害物の認識と走行制御が実時間で可能、2)一回の記録走行により容易に経路教示が行なえる、という特徴を備えた実用性の高い手法であることを実験により明らかにした。

 第5章「全方位ビューシーケンスに基づく経路誘導」では、全方位ビューシーケンスによる本方式の拡張について述べている。全方位視覚センサとしては回転双曲面鏡を用い、得られた画像を円筒面状のパノラマ画像に変換し、テンプレートマッチングが行なわれる。全方位ビューシーケンスはロボットの周囲360度の情報を含んでいるため、一つの経路表現で双方向の移動が可能となる。また、これまでのビューシーケンスよりも視野が広いために含まれている情報が多く、環境の変化に強いマッチングを実現できる。さらに、全方位視覚センサを用いて複数(例えば前方と後方の2つ)のマッチングを行なうことで、複数のカメラを持つのと同じ効果が得られため、定性的な制御方法でもこれまでより正確な誘導を行うことが可能となった。

 第6章「自律的な走行環境の獲得」では、ロボットが視覚により自律的に環境を動き回り、建物内の環境表現(地図)を自動的に獲得する手法について述べている。まず、両眼立体視や全方位画像上のオプティカルフローに基づいて走行可能な空間を検出する手法を開発した。ロボットはこの機能を用いた自律移動を行ないつつ、同時に全方位ビューシーケンスを記憶していくことで、建物内の環境全体の地図を獲得する。地図を獲得した後は、指示されたゴールに対し獲得した地図から経路を生成して自律走行することが可能となり、事前にオペレータがロボットを動かしてビューの列を教示する手間を省いている。

 第7章「仮想環境を用いたビューシミュレーション」では、グラフィックスワークステーションを用いて仮想的なビューを生成し、その画像を処理して仮想的な行動を行ないつつビューを更新する、という処理ループを持つ視覚移動ロボットシミュレータの構築と評価実験について述べている。仮想環境内で教示走行を行なうことで、実ロボットは経路を計画しながら走行を行なうことが可能となるだけでなく、ロボットが見え方を想像しながら行動するオンラインビューシミュレーションという概念を提案している。

 第8章「屋外環境における経路誘導への展開」では、濃淡画像だけでなく、微分画像、色相画像、両眼の視差画像等をビューとして統合利用することでロバストネスを高め、屋外のように明るさが変化する環境におけるビューベースの経路誘導を実現している。

 第9章「結論および考察」では、これまでの各章で展開した議論を総括し、結論を示す。

 以上、これを要するに本論文は、認識対象の様々な見え方を記憶し、画像の照合により認識を実現するというビューベーストアプローチに基づいて、移動ロボットのための環境表現およびそれを用いた実用的なナビゲーション手法を提案し、実環境での自律走行実験を通じてその有効性を示したもので、情報工学上貢献する所少なくない。

 よって本論文は博士(工学)の学位請求論文として合格と認められる。

UTokyo Repositoryリンク http://hdl.handle.net/2261/54639