1. Interactive perception(IP): ロボットの知覚における興味深いアプローチ
[1] Bohg, J., et al. "Interactive perception: Leveraging action in perception and perception in action", IEEE Transactions on Robotics, Vol.33,
No.6, pp.1273-1291, 2017.
[2] Atkeson, C. et al., "No falls, no resets: Reliable humanoid behaviour in the DARPA robotics challenge", 15th IEEE/RAS International Conference Humanoid
Robots, pp. 623–630, 2015.
[3] Johnson, M. et al., "Team IHMC’s lessons learned from the DARPA robotics challenge trials", Journal of Field Robotics, Vol. 32, No. 2, pp. 192–208, 2015.
[4] Held, R. and Hein, A., "Movement-produced stimulation in the development of visually guided behaviour", J. Comparative Physiol. Psychol., Vol.56,
pp.872–876, 1963.
[5] Gibson, J. J., "The Senses Considered as Perceptual Systems", Houghton Mif?in, 1966.
発表者: 大阪大学石黒研究室 博士後期課程3年 浦井健次
Posture sensor ?(?)
センサ情報
?(?)
行動パラメータ
例)モータ出力等
ロボットが行動することで環境を操作し「予測」や「認識」に必要な情報を能動的に得る
センサ情報(S(t))と行動
パラメータ(A(t))を組み
合わせ(S×A×t),予測や
認識を容易にする
論文調査発表会資料 前編 ~Physical human-robot interaction (pHRI)に関する重要な視点について考える~
4. 概要:
Interactive perception (IP):
① ロボットの知覚における近年注目されているア
プローチのひとつ(Darpa Robotics Challenge 出場者らもIPを
活用することでより高い自律性を持たせることができると注目[2][3])
② センサ情報(S(t))とアクチュエータ情報(A(t))を組
み合わせて(S×A×t), 予測や認識を容易にする
IPの重要なアプリケーションの概要を説明
Interactive perception: Leveraging action in perception
and perception in action[1](Bohg, J., et al. 2017)
3/14
[1] Bohg, J., et al. "Interactive perception: Leveraging action in perception and perception in action", IEEE Transactions on Robotics, Vol.33, No.6, pp.1273-1291, 2017. [2]
Atkeson, C. et al., "No falls, no resets: Reliable humanoid behavior in the DARPA robotics challenge", 15th IEEE/RAS International Conference Humanoid Robots, pp. 623–
630, 2015.[3] Johnson, M. et al., "Team IHMC’s lessons learned from the DARPA robotics challenge trials", Journal of Field Robotics, Vol. 32, No. 2, pp. 192–208, 2015.
Bohg, J., et al. “Interactive perception: Leveraging action in perception and perception in action”(2017).
Posture sensor
?(?)
センサ情報
?(?)
行動パラメータ
例)モータ出力等
5. 概要:
Interactive perception (IP):
① ロボットの知覚における近年注目されているア
プローチのひとつ(Darpa Robotics Challenge 出場者らもIPを
活用することでより高い自律性を持たせることができると注目[2][3])
② センサ情報(S(t))とアクチュエータ情報(A(t))を組
み合わせて(S×A×t), 予測や認識を容易にする
IPの重要なアプリケーションの概要を説明
Interactive perception: Leveraging action in perception
and perception in action[1](Bohg, J., et al. 2017)
3/14
[1] Bohg, J., et al. "Interactive perception: Leveraging action in perception and perception in action", IEEE Transactions on Robotics, Vol.33, No.6, pp.1273-1291, 2017. [2]
Atkeson, C. et al., "No falls, no resets: Reliable humanoid behavior in the DARPA robotics challenge", 15th IEEE/RAS International Conference Humanoid Robots, pp. 623–
630, 2015.[3] Johnson, M. et al., "Team IHMC’s lessons learned from the DARPA robotics challenge trials", Journal of Field Robotics, Vol. 32, No. 2, pp. 192–208, 2015.
Bohg, J., et al. “Interactive perception: Leveraging action in perception and perception in action”(2017).
Posture sensor
?(?)
センサ情報
?(?)
行動パラメータ
例)モータ出力等
[2] Atkeson, C. et al. [3] Johnson, M. et al.
6. 人を含む動物の知覚?認識=IPのような,インタラクティブな探索的なプロセス
生物学的な知覚プロセス(1/2) [4](Held, R. & Hein, A., 1963)
4/14
[4] Held, R. and Hein, A., "Movement-produced stimulation in the development of visually guided behaviour", J. Comparative Physiol. Psychol.,
Vol.56, pp.872–876, 1963.
Bohg, J., et al. “Interactive perception: Leveraging action in perception and perception in action”(2017).
ゴンドラネコと自由移動ネコ
Heldの実験 [4]:
条件)誕生時から暗闇の中で育てた同腹の子ネコ5対
(A,B)が歩けるようになるのを待ち特殊な視覚経験を与える
? Aは自分の足で歩いて空間内を移動(能動的)
? BはAの動きに応じて動くゴンドラに乗せ移動(受動的)
※経験する視覚刺激は同じ
結果)Bにも歩く能力があるにも関わらず「生存に不可欠な
視覚行動」が見られなかった→「見え」が形成されていない
※着地姿勢、視覚的崖回避、瞬目反射など
→能動的に体を動かし環境とインタラクションする視
覚体験が必要(体の動きと「見え」の変化の因果)
認識において「自ら環境を変える動き(能動的な探
索行動)」から得られる情報こそ最も本質的な情報
図 (Yuji, I., 2017)
A
B
7. 人を含む動物の知覚?認識=IPのような,インタラクティブな探索的なプロセス
5/14
[5] Gibson, J. J., "The Senses Considered as Perceptual Systems", Houghton Mif?in, 1966.
Bohg, J., et al. “Interactive perception: Leveraging action in perception and perception in action”(2017).
不規則な形状の物体の集合
Gibsonの実験 [5]:
タスク)被験者らが右図のような不規則な形状の三次元
物体の集合の中から基準物体を見つける
結果)
? 画像のみ表示:平均精度49%
? 画像を回転可能:平均精度72%
? 物体を手で触ることが可能:平均精度99%
→対象との物理的インタラクションが知覚処理を助長
生物学的な知覚プロセス(2/2) [5](Gibson, J. J., 1966)
基準物体の例
●生物学的な知覚 → 「視覚的な認識」と「触覚による探索」の関係を経験的に理解し知覚
●コンピュータビジョン → 事前知識や様々な仮定を利用し画像に意味付けを行う
※Pascal VOC ,ImageNet ,Microsoft COCO など、数十万の意味付けされた大量のデータセットで成功
●ロボットビジョン → 環境内を移動して物理的に相互作用する知覚 → IP
触る行動で知覚が向上
9. ① Sensorless Manipulation:センシングを必要としないアプローチ
→ 環境から受ける応答を考慮せずセンサからのフィードバックなしにオープンループで操作
② Perception of Visual Data:静止画像?ビデオ?他の視覚データの解釈?認識
→ コンピュータビジョンのアプローチの大部分は生物やロボットの認識の能動的な性質を完全に無視
③ Active Perception:知覚?認識のためのデータ取得プロセスに知的な戦略を導入
→ エージェントが「なぜそのデータが必要か」を知っており次に取得する知覚データを選択(不確実性減)
→ その知覚データをいつどこで取得するかを決定する能動的な知覚
●APとIPの差異(IPには以下の性質がある)
1) 物理的相互作用により得られる情報を含む
(重量?表面粗さ?硬度などの物体特性)
2) 見え方だけでなく環境そのものを変化させる
④ Active Haptic Perception:
環境との接触(触覚情報)を活用した認識
→形状認識?姿勢推定?表面粗さ認識など…
→環境の変化自体が目的でないがIPの一部
IPと他の知覚アプローチの関連.Fは環境を操作する,
?Fは感覚装置のパラメータのみ操作するアクション
7/14
ロボット知覚におけるIPの位置づけ
Bohg, J., et al. “Interactive perception: Leveraging action in perception and perception in action”(2017).
S × A × t
S × A × t
S × t
S
A × t
S × A × t
16. IPアプローチを特徴づける項目で,既存の手法を詳細に分類
Bohg, J., et al. “Interactive perception: Leveraging action in perception and perception in action”(2017).
IPの分類
●環境との相互作用により得られる信号の利用方法
IPアプローチは以下の情報を予測や認識に使用
1)時間変化する相互作用に起因する知覚情報の利用(CNS)
2)(S×A×t) 結合空間における規則性に関する知識の活用(APR)
※APRを活用するアプローチは必然的にCNSも活用している
12/14
APRがIPアプローチによって利用される程度
環境との相互作用に関する
事前知識への依存度 IPアプローチがAPRを活用するほど、よ
り多くの事前知識に依存する
→ 環境を相互作用によって知覚する
には事前知識を要する場合が多い
① 環境との相互作用で得られる情報の利用について
17. IPアプローチを特徴づける項目で,既存の手法を詳細に分類
Bohg, J., et al. “Interactive perception: Leveraging action in perception and perception in action”(2017).
IPの分類
●タスク実行や環境認識のための事前知識
IPアプローチは以下の事前知識を予測や認識に使用
対象の性質に関する事前知識:剛体(RO)?変形可能(AO)?把持/押し引きの
可否(action primitives:AP) 平面移動(object motion is restricted to
a plane:PM) 動きの制約(simpli?cations of the scene dynamics:SD)
データベースへのアクセス(access to an object database:OD)
? IPにおけるアプローチの大部分は、オブジェクトが剛性(RO)であると仮定
? 運動モデルの推定に関するアプローチのみAOの存在を仮定
? セグメンテーションにおける多くのアプローチは平面運動(PM)と仮定
? ダイナミクスを単純化する仮定(SD)により対象運動の予測を単純化
12/14
② どのような事前知識を用いているか
18. IPアプローチを特徴づける項目で,既存の手法を詳細に分類
Bohg, J., et al. “Interactive perception: Leveraging action in perception and perception in action”(2017).
IPの分類
●環境との相互作用により得られる信号の探索方法
探索(可能な限り知覚を向上させるための行動を行う)と活用(操作目標への進
展を最大化する行動を行う)のバランスをとる必要がある
? 問題の定式化:ロボットのタスク依存 → 純粋に知覚的な仕事である場合、現在
の推定(探索)に関する不確実性を減少させる行動が高い報酬を受ける
? ダイナミクスモデルの定式化:モデルを知ることは、知覚を改善することよりも行動選
択にとって重要 → 報酬に対する行動の影響を予測することを可能にする.またモデル
はノイズに対応するために確率的要素を含むが近似解を導く多くの方法がある
M:Myopic/greedy:近視的でグリーディな探索(次ステップの報酬を最適化)
G(GP) = Global Policy:ある信念に基づき広域的に最適な行動を選択
12/14
③ 必要なデータ取得のための行動選択について
行動選択の方法の例
19. IPアプローチを特徴づける項目で,既存の手法を詳細に分類
Bohg, J., et al. “Interactive perception: Leveraging action in perception and perception in action”(2017).
IPの分類
●IPの目的が知覚か操作か両方か
a. 知覚(Perception):オブジェクトセグメンテーション?姿勢推定?関節運動モデル
推定などは「知覚」を目的としてIPが利用される領域の例にあたる
b. 操作(Manipulation):把持タスクの達成を容易にするために(関心のある物
体を見つけて認識するために)環境との相互作用で得られる情報(S×A×t)の規則
性を利用する場合などは「操作」を目的としてIPが利用される領域の例にあたる
c. 両方(M,P):知覚と操作の両方の組み合わせ. 例えば S×A×tの観測値とダ
イナミクスの規則性に関する知識を用いて運動モデル推定を改善し,より良い制御
を可能にするなど(ロボットがドアや引き出しを開くタスクなど)がその例にあたる
12/14
④ 目的が「知覚」か「操作」か「両方」か
20. IPアプローチを特徴づける項目で,既存の手法を詳細に分類
Bohg, J., et al. “Interactive perception: Leveraging action in perception and perception in action”(2017).
IPの分類
●IPに複数のセンサモダリティが利用されているか単一入力か
? S×A×t空間における複数のモダリティを利用(?)
? S×A×t空間における単一の有益なモダリティに限定(?)
センサモダリティは接触と非接触のものに大別可能:
? 非接触:視覚?近接センサ?ソナーなど
? 接触:触覚センサ?力/トルクセンサなど
※IPアプローチには触覚センシングのみを使用するアプローチもある
12/14
⑤ 複数のセンサモダリティが利用されているか
21. IPアプローチを特徴づける項目で,既存の手法を詳細に分類
Bohg, J., et al. “Interactive perception: Leveraging action in perception and perception in action”(2017).
IPの分類
●IPアプローチにおける不確実性のモデル化の手法
推定量に関する不確実性:ノイジーなセンサーや相互作用する環境のダイナミクス
不確実性のモデル化:
決定論的ダイナミクスモデル(DDM)?確率論的ダイナミクスモデル(SDM)? 決
定論的観測モデル(DOM)?確率的観測モデル(SOM)?不確かさを推定する
アプローチは(EU)
※決定論的な力学則モデルを仮定:DDM
※確率論的な観測情報を基にモデル化:SOM
12/14
⑥ 不確実性はどのようにモデル化されているか