セミナーレポート
Deep Learning によるロボット知覚 ―Amazon Picking Challenge における取り組み―中部大学工学部 藤吉 弘亘
本記事は、国際画像機器展2016にて開催された特別招待講演を記事化したものになります。
ディープラーニングを歩行者検出に適用
APC2016の成績は16チーム中8位でした。ピックタスクでの認識率は92.5%で,認識はできたのですが,つかむというところが課題でした。優勝したのは,チーム・デルフトで,デルフト工科大学とデルフト・ロボティクス社の混成チームです。彼らの面白いところはロボットのハンドを自作し,吸着に優れているところです。APC2016から追加されたストータスクでは,乱雑に置かれたばら積みの多品種アイテムから指定のアイテムを認識してピッキングし,収納するときに他のアイテムとぶつからないように入れるというところに難しさがあります。我々は2台の協調ロボットを使用。1台目のロボットが把持位置を検出し,ピッキングし,力学センサーで軽量して仮置台を置きます。そして,2台目のロボットがアイテム1個の状態で重さによって制限をかけ認識し,収納するという仕組みを作りました。成績は11位。優勝はチーム・デルフトでした。上位のチームは産業用ロボットと吸着ハンドが圧倒的に多く,ディープラーニングはほとんどのチームで使われていました。認識と動作を同時にディープラーニングで解くというのが今後の課題です。
DCNN(Deep Convolutional Neural Network)の良い点は,従来は特徴抽出と識別それぞれ別過程だったものを1つのフレームワークで得られるというところにあります。我々は物体検出に取り組んでおり,ディープラーニングを歩行者検出に適用しています。2段階手法で,従来のアプローチで背景を棄却,歩行者と歩行者に近い背景だけをDCNNで分類ということを行っています。
DCNNは物体検出だけでなく,セグメンテーションにも使えます。複雑な背景下において髪の毛,目,頭,鼻,口といった領域だけを抽出。現在は,1枚の画素に対して,道路,車,歩道,樹木,信号,標識に分類するセマンティック・セグメンテーションができるようになってきました。今後は,セマンティック・セグメンテーションのロボットへの応用や,複数のタスクを同時に解決するヘテロジニアス・ラーニングの実現を目指していきます。
中部大学工学部 ロボット理工学科 藤吉 弘亘
1997年 中部大学大学院博士後期課程修了 1997年 米カーネギーメロン大学ロボット工学研究所Postdoctoral Fellow 2000年 中部大学工学部情報工学科講師 2004年 中部大学准教授 2005年 米カーネギーメロン大学ロボット工学研究所客員研究員(~2006年) 2010年 中部大学教授 2014年 名古屋大学客員教授(兼任) 計算機視覚,動画像処理,パターン認識・理解の研究に従事。ロボカップ研究賞(2005年) 情報処理学会論文誌CVIM優秀論文賞(2009年),情報処理学会山下記念研究賞(2009年),画像センシングシンポジウム優秀学術賞(2010, 2013, 2014, 2016年),電子情報通信学会 情報・システムソサイエティ論文賞(2013年),画像センシングシンポジウム最優秀学術賞(2016年)他。