セミナーレポート

誕生間近の自ら学習し,人のために働くロボット東京工業大学 長谷川 修

本記事は、画像センシング展2012にて開催された特別招待講演を記事化したものになります。

目指すのは,いいつけだけで勝手に賢くなるロボット

 一般物体認識では,例えば,ライオンを認識する場合,その写真をたくさん見せて教えます。しかし,実世界には多種多様の物体があり,高ノイズで,新しいものがどんどん増えていくので,一般物体認識ですべてを教えていくのは現実的ではありません。そこで,SOINNでは,「茶色」「四本足」「足が短い」「飛べない」というように属性を教え,それが基本知識になっていきます。例えば,電子レンジを認識するのに,一般物体認識では写真をたくさん見せて教えていましたが,SOINNでは「白くて四角い箱で,窓があり,ダイヤルが付いている」と教えていき,その要素を持ち合わせているのが「これだ」と認識させるようにしています。この関係はアルファベットと辞書の関係に類似していて,英語の場合,26文字の組み合わせで数十万の単語が生まれるわけです。
 加えて,SOINNはベクトルデータ全般を属性として,超高速オンライン追加学習が可能であり,画像,音声,各種センサーデータ,モーターの制御信号などあらゆるパターンデータが入力できます。すでに,私たちの研究室では,ロボットに対象物にさわらせて感触を学習させ,持たせて重さを分からせ,音も聞かせて,それらの情報を転移させて,見ただけでは分からない物体を当てさせることができるようになっています。
 そこで,私たちが目指しているのは「お茶を入れてほしい」というと,その意味や処理手順を自分で学習・推論し,分からなければネットで調べて,容器が紙コップであればそっと持ち,湯飲み茶碗であれば,しっかり持つ,ロボットです。この動作は誰もが子どものころから次第に学んで身に付けていき,大人になってからは当たり前のこととして,やっていることですが,同じ経験をロボットにさせるのです。その最大のメリットは人間と共感できることです。「マシュマロのようなほっぺ」といった時に,ロボットが人間と同じ言葉で分かるようになれば,ロボットが人間に共感して動くようになり,介護ロボットを作った時に,人をやさしく抱き上げる時の感覚が理解できるようになります。

<次ページへ続く>

東京工業大学 長谷川 修

1993年,東京大学大学院 電子工学専攻 博士課程修了,博士(工学)。同年,通商産業省(現経済産業省) 工業技術院 電子技術総合研究所 研究員。1999年,米国カーネギーメロン大学 ロボティクス研究所 客員研究員。2002年,東京工業大学 大学院理工学研究科付属 像情報工学研究施設 助教授。2010年,東京工業大学 像情報工学研究所 准教授。 長谷川研究室 http://haselab.info/

アーカイブもっと見る

知能ロボットのための画像センシング技術の基礎と研究事例
知能ロボットのための画像センシング技術の基礎と研究事例...(11/25) 中京大学 工学部 教授・ヒューマンロボティクス研究 センター長 橋本 学
人と人の共感・連携を促しチームパフォーマンスを高める “Sensing & Control+Think”技術 -オムロンが描く「人と機械の融和」の一形態について-
人と人の共感・連携を促しチームパフォーマンスを高める “Sensin...(9/25) オムロン(株) 技術・知財本部 ロボティクスR&Dセンタ 水山 遼
自動運転のためのセンサーフュージョン技術
自動運転のためのセンサーフュージョン技術...(7/25) 芝浦工業大学 システム理工学部 機械制御システム学科 教授 伊東 敏夫
コンピュテーショナルイメージング概説
コンピュテーショナルイメージング概説...(7/25) 東京大学 大学院 情報理工学系研究科 准教授 堀﨑 遼一
ニューノーマルにおけるロボットビジョン研究
ニューノーマルにおけるロボットビジョン研究...(11/25) 産業技術総合研究所 インダストリアルCPS研究センター 堂前 幸康

▼ プラチナスポンサー ▼

株式会社リンクス

▼ メディアパートナー ▼

エキスポ・ゲートブリッジ

CIOE2024

APE2025

ダウンロード

展示会FAQ