セミナーレポート

ロボットに使える最新画像処理技術 ~物体認識のための画像局所特微量~中部大学 藤吉 弘亘

本記事は、画像センシング展2010にて開催された特別招待講演を記事化したものになります。

人と車両の画像で実際に評価

図9 ラスタスキャンを使ったJoint HOGによる検出例

図9 ラスタスキャンを使ったJoint HOGによる検出例

 実際に人と車両を使ったデータで評価してみました。人を切り出した画像と,前向き後ろ向き合わせた車両の画像を学習しています。ネガティブデータには,人以外の部分をランダムに切り出した画像を用意しました。図8がDET(Detection Error Tradeoff)による評価実験結果になります。DET では原点に近いほど高精度であることを表しています。(a)が人検出,(b)が車両検出の結果で,原点に近い線がJoint HOGの結果です。
 Joint HOGでは特に車両の場合,通常のHOGに比べて高精度に認識できることが分かります。実際の画像(図9,Webに動画像あり)では,従来の背景差分等では多くの人を分離して検出することは非常に難しかったのですが,Joint HOGを使うことによって精度よく検出できるようになりました。また,車両もほとんど失敗することなく検出できています。
図9 ラスタスキャンを使ったJoint HOGによる検出例

図9 ラスタスキャンを使ったJoint HOGによる検出例

 アダブーストを使う利点は,弱識別器がどういう特徴量を捉えているか確認できることです。前述の車両に対して弱識別器が何を捉えているか確認してみる(図10)と,1ラウンド目に捉えた識別器は「縦と横」で,2ラウンド目は「横と縦」でした。1ラウンド目と2ラウンド目の弱識別器を使って車の下のラインを捉えていることが分かります。3ラウンド目の弱識別器は車のルーフの2 つの部分を捉えていて,さらに対称性も自動的に検出していることが分かります。
図10 自動生成されたJoint HOG特徴(車両検出)

図10 自動生成されたJoint HOG特徴(車両検出)

 このように,Joint HOGでは,自動的に局所的特徴を組み合わせて,物体形状の対称性や連続性を捉えることで高性能な検出を実現しています。

<次ページへ続く>

中部大学 藤吉 弘亘

1997年,中部大学 大学院博士後期課程修了。
1997年~2000年,米カーネギーメロン大学ロボット工学研究所Postdoctoral Fellow。
2000年より中部大学講師。
2004年,同大准教授。2006年,米カーネギーメロン大学ロボット工学研究所客員研究員。

アーカイブもっと見る

知能ロボットのための画像センシング技術の基礎と研究事例
知能ロボットのための画像センシング技術の基礎と研究事例...(11/25) 中京大学 工学部 教授・ヒューマンロボティクス研究 センター長 橋本 学
人と人の共感・連携を促しチームパフォーマンスを高める “Sensing & Control+Think”技術 -オムロンが描く「人と機械の融和」の一形態について-
人と人の共感・連携を促しチームパフォーマンスを高める “Sensin...(9/25) オムロン(株) 技術・知財本部 ロボティクスR&Dセンタ 水山 遼
自動運転のためのセンサーフュージョン技術
自動運転のためのセンサーフュージョン技術...(7/25) 芝浦工業大学 システム理工学部 機械制御システム学科 教授 伊東 敏夫
コンピュテーショナルイメージング概説
コンピュテーショナルイメージング概説...(7/25) 東京大学 大学院 情報理工学系研究科 准教授 堀﨑 遼一
ニューノーマルにおけるロボットビジョン研究
ニューノーマルにおけるロボットビジョン研究...(11/25) 産業技術総合研究所 インダストリアルCPS研究センター 堂前 幸康

▼ メディアパートナー ▼

Smart Factory + Automation World 2024
CIOE2024

ダウンロード

展示会FAQ