6. Dense Trajectoriesの基本的な情報
考案者
–? Heng Wang (発表当時INRIA所属)
–? CVPR2011 (Journal: IJCV2013)
手法
–? 簡単に言うと(i)特徴点追跡と(ii)特徴記述
応用場面
–? 人物行動認識,ジェスチャ認識,動物体認識
–? 基本的には動的な物体認識なら解析できる
H. Wang, et al., “Dense Trajectories and Motion Boundary Descriptors for Action Recognition”, in IJCV2013.
H. Wang, et al., “Action Recognition by Dense Trajectories”, in CVPR2011.
7. 3D姿勢ベースの認識よりもロバスト
M. Rohrbach, et al., “A Database for Fine Grained Activity Detection of Cooking Activities”, in CVPR2012.
Pose-based approach
Holistic appraoch
詳細行動認識 (Fine-grained recognition)にて
–? 詳細行動認識では微小な違いによるクラスの違いを見分ける課題
–? 姿勢特徴 34.6%に対してアピアランス特徴(=Dense Traj.)は59.2%を記録
37. THUMOS@ICCV’13
Improved DTはワークショップTHUMOSで優勝
–? THUMOS: The First International Workshop on Action Recognition with a
Large Number of Classes, in conjunction with ICCV '13
–? UCF50をさらに拡張したUCF101(101クラス認識)にて認識率を評価
–? INRIAの研究グループはImproved Dense Trajectoriesを用いて85.9%の認
識率を達成
38. ノイズ除去方式
[Y.-G. Jiang, ECCV2012]
–? Trajectory特徴量(下式)に着目
–? 動線の局所的パターンによりクラスタリング
–? 動線のペアをワード化して特徴記述
3パターンにクラスタリング
Y.-G. Jiang, et al., “Trajectory-Based Modeling of Human Actions with Motion Reference Points”, in ECCV2012.
39. ノイズ除去方式
[M. Jain, CVPR2013]
–? アフィン変換行列を用いてカメラ動作除去
–? 動線の逸脱?曲率?途切れを省く処理
背景のフローを除去
M. Jain, et al., “Better exploiting motion for better action recognition”, in CVPR2013.
40. ノイズ除去方式
[X. Peng, BMVC2013]
–? Motion boundary空間にフローを取得
–? 動領域からエッジを取得
–? RGB空間では背景ノイズが発生
X. Peng, et al., “Exploring Motion Boundary based Sampling and Spatial-Temporal Context Descriptors for Action Recognition”, in
BMVC2013.
41. 共起特徴量の導入
[H. Kataoka, ACCV2014]
–? 共起特徴量をDense Trajectoriesに適用
–? 「エッジペアカウント」や「エッジ強度ペア累積」により特徴表現
H. Kataoka, et al., “Extended Co-occurrence HOG with Dense Trajectories for Fine-grained Activity Recognition”, in ACCV2014.
45. Middle-level特徴量
[Raptis, CVPR2012]
–? フローを領域ごとにクラスタリング
–? Dense Trajectoriesを領域ごとにクラスタリングしたAction Parts
–? クラスタ間の時系列特徴のつながりをMRFにて学習
M. Raptis, et al., “Discovering Discriminative Action Parts from Mid-Level Video Representations”, in CVPR2012.
46. 因果関係による特徴表現
[S. Narayan, CVPR2014]
–? フローのクラスタリングと因果関係
–? 人物姿勢の拘束により変化するフローの関係性を記述
–? あるフロー同士の関連性を見抜く
因果関係記述にグレンジャー因果を適用
部位内?部位間の関係性が強力な特徴
S. Narayan, et al., “A Cause and Effect Analysis of Motion Trajectories for Modeling Actions”, in CVPR2014.
47. 頻度による特徴マイニング
[A. Gilbert, ACCV2014]
–? 膨大な空間から識別に有効な特徴のみを探索
–? マイニングにはAprioriアルゴリズムを適用
–? 次元の削減?高速化?高精度化を同時に実現
行動領域から類似特徴を取得する
A. Gilbert, et al., “Data mining for Action Recognition”, in ACCV2014.
48. Deep Learningとの統合
ワークショップTHUMOS@ECCV2014
–? THUMOS: The First International Workshop on Action Recognition with a
Large Number of Classes, in conjunction with ECCV '14
–? 優勝者はAmsterdam大学のチーム
–? ECCV2014年終了時点での最高性能を誇る手法
–? 2位のチーム(INRIA)もDeep Learningを適用
A. R. Zamir, et al., “THUMOS 2014 Action Classification Track Summary” , in ECCV Workshop THUMOS, 2014.
49. Improved DT + CNN
[M. Jain, ECCVW2014]
–? H. WangらのImproved Dense Trajectoriesを適用
–? Convolutional Neural Networks (CNN)により生成された特徴量も統合
Improved DT + Fisher Vectorによる行動特徴
Deep netのアピアランス特徴(6, 7, 8層を使用)
M. Jain, et al., “University of Amsterdam at THUMOS Challenge 2014”, in ECCV Workshop THUMOS, 2014.
50. Improved DT + SIFT + Color + CNN + Audio
[D. Oneata, ECCVW2014]
–? THUMOS 2位のチームINRIAの手法
–? 多チャンネルの特徴量を適用
–? Improved DTに加えてSIFT, Color, Deep Learning, 音声
D. Oneata, et al., “The LEAR submission at Thumos 2014”, in ECCV Workshop THUMOS, 2014.
51. その他,THUMOS@ECCV14での動向
Middle-level Feature[G. Varol, ECCVW2014]の利用
–? Improved DT + Middle-level feature
–? Face, body, eye pair, left eye, right eye, profile and people detectors
–? 検出領域を特徴として適用
Saliency Feature[S. Karaman, ECCVW2014]
–? 物体検知の前処理であるBING[M.-M. Cheng, CVPR2014]を適用
–? 領域を特定した状態でフローの削除
–? BING (http://mmcheng.net/bing/)
M.-M. Cheng, et al., “BING: Binarized Normed Gradients for Objectness Estimation at 300fps”, in CVPR2014.
S. Karaman, et al., “Fast saliency based pooling of Fisher encoded dense trajectories”, in ECCV Workshop THUMOS, 2014.
G. Varol, et al., “Extreme Learning Machine for Large-Scale Action Recognition”, in ECCV Workshop THUMOS, 2014