セミナーレポート
Deep Learning によるロボット知覚 ―Amazon Picking Challenge における取り組み―中部大学工学部 藤吉 弘亘
本記事は、国際画像機器展2016にて開催された特別招待講演を記事化したものになります。
認識にディープラーニング手法を導入
今年のAPC2016は6月にドイツのライプチヒで開催されました。今年は問題が1つ増え,従来の棚からピッキングするというピックタスクに加え,対象物を収納するというストータスクの2つで競うということになりました。また,ピッキングするアイテムも39種類に増え,アイテムは重ねて乱雑に置かれています。しかも,棚が競技前に3センチ以内で移動させられます。ですから,あらかじめキャリブレーションしておいてもずれてしまいます。そこで,ピックタスクで必要とされたのが,競技開始後の棚とロボットの位置関係のセルフキャリブレーションと,乱雑な状態からのアイテムの正確な認識でした。我々は,ロボットが持つ力学センサーを使い,棚を触りながら計測しロボットの位置座標を用いた自動キャリブレーションを実現しました。認識に関しては,ディープラーニングのDeep Convolutional Neural Network(DCNN)を使いました。ただし,処理時間がかかるため,事前に入力距離画像の中から把持する位置を検出。把持する位置の周辺領域から,それが何であるかという分類問題として解くというアプローチを取りました。
把持位置の検出では,Fast Graspability Evaluationという方法を使っています。まず,ロボットハンドの接触領域と衝突領域を二値でマスクパターンとして表現します。シーンが観測されますが,距離画像で観測していますので,距離画像をある距離のところで二値化します。その二値化した距離画像に接触領域と衝突領域を畳み込みます。それによって最終的な把持位置を決定するという仕組みです。このようにして出てきた把持位置の周辺領域をパッチ画像として切り出し,それをDCNNに入れて40クラスのうちのどれかという分類問題として解きます。出てきた把持位置の回数分DCNNに入力して判定をしていますが,DCNNの出力は40個あり,その各ユニットの結果をSoftmaxという方法でマックスとなるところを認識。binの中に入っている候補を分母としてその中でどれが一番高いかということで誤識別を削減しました。最終的に,識別結果を統合処理し,指定されたアイテムの最適な把持位置を使って取り出します。
<次ページへ続く>
中部大学工学部 ロボット理工学科 藤吉 弘亘
1997年 中部大学大学院博士後期課程修了 1997年 米カーネギーメロン大学ロボット工学研究所Postdoctoral Fellow 2000年 中部大学工学部情報工学科講師 2004年 中部大学准教授 2005年 米カーネギーメロン大学ロボット工学研究所客員研究員(~2006年) 2010年 中部大学教授 2014年 名古屋大学客員教授(兼任) 計算機視覚,動画像処理,パターン認識・理解の研究に従事。ロボカップ研究賞(2005年) 情報処理学会論文誌CVIM優秀論文賞(2009年),情報処理学会山下記念研究賞(2009年),画像センシングシンポジウム優秀学術賞(2010, 2013, 2014, 2016年),電子情報通信学会 情報・システムソサイエティ論文賞(2013年),画像センシングシンポジウム最優秀学術賞(2016年)他。