狠狠撸

狠狠撸Share a Scribd company logo
論文紹介
Learning Important Features
Through Propagating Activation
Differences
東京大学工学系研究科
システム創成学専攻 和泉研究室
D1 伊藤友貴
自己紹介
? 東京大学工学系研究科 和泉研究室所属
– 金融に関するデータマイニング
– 人工市場によるシミュレーション
? 普段はロイターニュースとかヤフーファイナン
ス掲示板とか触って遊んでます
? 今日紹介する論文、ちょいちょい正確に理解
できていないです…お手柔らかにお願い致し
ます
概要
? 紹介する論文
– Learning Important Features Through Propagating
Activation Differences
(A. Shrikumar et. Al, ICML, 2017)
? 概要
– Neural Network から重要な要素は何かを抽出す
る方法のアプローチ(Deep Lift 法)を提案
– 既存手法より色々良さそう
既存手法
? Perturbation approach
? Back propagation approach
– Gradients
? (Springenberg et. al. 2014) など
– Gradients × Input
? (Shrikumar et. al. 2016) など
問題点1
? 勾配0になると問題が起こる
Fig. 1
問題点2 (ジャンプ)
? ジャンプする(不連続)
Fig. 2
Deep Lift
? 勾配の問題やジャンプの問題を解決する方
法を提案 (Deep Lift )
– 個人的にはどうしてこの発想になったのかわかっ
ていないので多分ちゃんと理解できていない
Deep Lift Philosophy
ある層の値:
出力:
reference activation:
difference-from-reference:
← 基準値みたいなもの(後で定義)
Contribution Scores:
? 各入力値 (xi) の出力値(t) への影
響度(後で定義)
? これをどう計算するかが肝
← 基準値からどれくらい外れるか
Multipliers and the Chain Rule
Multipliers を以下のように定義
CHAIN RULE で を計算 (式(3))
Defining the reference
i1
i2
入力:
出力:
Reference activation:
より以下のように Reference activation を計算
Separating positive and negative
? ポジティブ項とネガティブ項を別々に考える
Linear Rule, Rescale Rule, or Reveal cancel Rule
により計算(後で定義)
Contribution Scores の計算
? 線形な変換 → Linear Rule で計算
– 例: 結合層?たたみ込み層
? 非線形な変換
→ Rescale Rule or Reveal cancel Rule で計算
– 例: tanh, ReLU
The Linear Rule
? 線形な部分 (結合?畳み込み)では以下のよう
にContribution Scores を計算
に対して
The Linear Rule
このとき, 以下が成立
THE RESCALE RULE
? 非線形部分(ReLU, tanh など)では以下のよう
に Contribution Scores を計算
? このとき以下が成立
具体例: Rescale Rule
i1
0 = i2
0 = 0, i1 + i2 > 1 の場合 Rescale Rule だと
具体例: Rescale Rule2
x0 = y0 = 0, x = 10 + ε の場合 Rescale Rule だと
不自然なジャンプ
連続
The Reveal Cancel Rule
具体例3
Fig. 3
これについて i1 > i2 , i1
0 = i2
0 = 0 という条件で
と を計算
Rescale Rule を使う場合:
Reveal Cancel Rule
を使う場合:
その他の工夫
? 最終層の活性化後の値に対する入力値の
Contribution Score ではなく活性化前の
Contribution Score を計算
? 最終層が Softmax のときは全体の平均を引
いたスコアで考える
数値実験1
? MNIST
– Ex. 数字を8 から 3 に変える
(一部消す)
– Contribution Score の変化
値が消した部分に対応
するかどうか検証
– (ちゃんと把握できてません)
数値実験2
? DNA 配列の分類に関する実験
? 意図通りに Contribution Score がつくかどう
かを検証
? (すいません、ちゃんと把握できてません。)
比較手法
? 既存手法
– Guided backprop * inp ()
– Gradient * input
– Integrated gradient -5
– Integrated gradient -10
? 提案手法 (Deep LIFT)
– Deep LIFT Rescale
– Deep LIFT Reveal Cancel
– Deep LIFT fc-RC-conv-RS
結果(MNIST)
Deep Lift の方がよい
結果 (DNA)
? Deep Lift の方がよい結果
? Reveal Cancel 入れた方がよい結果
結論
? Deep Lift という重要な要素は何かを抽出する方法
のフレームワーク(Deep Lift 法)を提案
? 既存手法 (gradient や gradient * input で起こるよう
な不自然なジャンプや勾配が0のときに起こる問題
を解決)
? RNNへの適用方法, Maxout, MaxPooling へのベスト
な適用方法 などが課題

More Related Content

What's hot (20)

Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
?
翱辫迟颈尘颈锄别谤入门&最新动向
翱辫迟颈尘颈锄别谤入门&最新动向
Motokawa Tetsuya
?
叁次元点群を取り扱うニューラルネットワークのサーベイ
叁次元点群を取り扱うニューラルネットワークのサーベイ
Naoya Chiba
?
画像生成?生成モデル メタサーベイ
画像生成?生成モデル メタサーベイ
cvpaper. challenge
?
贬颈笔笔翱/厂4解説
贬颈笔笔翱/厂4解説
Morpho, Inc.
?
研究効率化Tips Ver.2
研究効率化Tips Ver.2
cvpaper. challenge
?
【DL輪読会】WIRE: Wavelet Implicit Neural Representations
【DL輪読会】WIRE: Wavelet Implicit Neural Representations
Deep Learning JP
?
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
takaya imai
?
Deep Learningと画像認識   ~歴史?理論?実践~
Deep Learningと画像認識   ~歴史?理論?実践~
nlab_utokyo
?
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
Shohei Taniguchi
?
強化学習技術とゲーム AI ? 今できる事と今後できて欲しい事 ?
強化学習技術とゲーム AI ? 今できる事と今後できて欲しい事 ?
佑 甲野
?
SSII2022 [TS1] Transformerの最前線? 畳込みニューラルネットワークの先へ ?
SSII2022 [TS1] Transformerの最前線? 畳込みニューラルネットワークの先へ ?
SSII
?
深层生成モデルと世界モデル(2020/11/20版)
深层生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
?
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Yusuke Nakata
?
実装レベルで学ぶ痴蚕痴础贰
実装レベルで学ぶ痴蚕痴础贰
ぱんいち すみもと
?
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII
?
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
Deep Learning JP
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
【DL輪読会】A Path Towards Autonomous Machine Intelligence
【DL輪読会】A Path Towards Autonomous Machine Intelligence
Deep Learning JP
?
摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习
Deep Learning JP
?
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
?
翱辫迟颈尘颈锄别谤入门&最新动向
翱辫迟颈尘颈锄别谤入门&最新动向
Motokawa Tetsuya
?
叁次元点群を取り扱うニューラルネットワークのサーベイ
叁次元点群を取り扱うニューラルネットワークのサーベイ
Naoya Chiba
?
画像生成?生成モデル メタサーベイ
画像生成?生成モデル メタサーベイ
cvpaper. challenge
?
贬颈笔笔翱/厂4解説
贬颈笔笔翱/厂4解説
Morpho, Inc.
?
【DL輪読会】WIRE: Wavelet Implicit Neural Representations
【DL輪読会】WIRE: Wavelet Implicit Neural Representations
Deep Learning JP
?
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
takaya imai
?
Deep Learningと画像認識   ~歴史?理論?実践~
Deep Learningと画像認識   ~歴史?理論?実践~
nlab_utokyo
?
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
Shohei Taniguchi
?
強化学習技術とゲーム AI ? 今できる事と今後できて欲しい事 ?
強化学習技術とゲーム AI ? 今できる事と今後できて欲しい事 ?
佑 甲野
?
SSII2022 [TS1] Transformerの最前線? 畳込みニューラルネットワークの先へ ?
SSII2022 [TS1] Transformerの最前線? 畳込みニューラルネットワークの先へ ?
SSII
?
深层生成モデルと世界モデル(2020/11/20版)
深层生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
?
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Yusuke Nakata
?
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII
?
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
Deep Learning JP
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
【DL輪読会】A Path Towards Autonomous Machine Intelligence
【DL輪読会】A Path Towards Autonomous Machine Intelligence
Deep Learning JP
?
摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习
Deep Learning JP
?

Similar to 20170618論文読み会 伊藤 (20)

搁で学ぶ観察データでの因果推定
搁で学ぶ観察データでの因果推定
Hiroki Matsui
?
分散型强化学习手法の最近の动向と分散计算フレームワーク搁补测による実装の试み
分散型强化学习手法の最近の动向と分散计算フレームワーク搁补测による実装の试み
SusumuOTA
?
Computational Motor Control: Reinforcement Learning (JAIST summer course)
Computational Motor Control: Reinforcement Learning (JAIST summer course)
hirokazutanaka
?
Rainbow
Rainbow
Takahiro Yoshinaga
?
NIPS KANSAI Reading Group #7: 逆強化学習の行動解析への応用
NIPS KANSAI Reading Group #7: 逆強化学習の行動解析への応用
Eiji Uchibe
?
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
tomitomi3 tomitomi3
?
Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...
Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...
Toru Fujino
?
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
?
心理学におけるベイズ统计の流行を整理する
心理学におけるベイズ统计の流行を整理する
Hiroshi Shimizu
?
Evolved policy gradients
Evolved policy gradients
Kenshi Abe
?
状態空間モデルの考え方?使い方 - TokyoR #38
状態空間モデルの考え方?使い方 - TokyoR #38
horihorio
?
北大調和系 DLゼミ A3C
北大調和系 DLゼミ A3C
Tomoya Oda
?
強化学習勉強会?論文紹介(第30回)Ensemble Contextual Bandits for Personalized Recommendation
強化学習勉強会?論文紹介(第30回)Ensemble Contextual Bandits for Personalized Recommendation
Naoki Nishimura
?
Decision Transformer: Reinforcement Learning via Sequence Modeling
Decision Transformer: Reinforcement Learning via Sequence Modeling
Yasunori Ozaki
?
Neural Rejuvenation: Improving Deep Network Training by Enhancing Computation...
Neural Rejuvenation: Improving Deep Network Training by Enhancing Computation...
Yosuke Shinya
?
#神奈川大学経営学総論 A (10/15) 競争戦略
#神奈川大学経営学総論 A (10/15) 競争戦略
Yasushi Hara
?
外国语教育研究における搁を用いた统计処理入门
外国语教育研究における搁を用いた统计処理入门
Yusaku Kawaguchi
?
复合システムネットワーク论を読む(公开版)
复合システムネットワーク论を読む(公开版)
考司 小杉
?
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
Masayoshi Kondo
?
なぜ統計学がビジネスの 意思決定において大事なのか?
なぜ統計学がビジネスの 意思決定において大事なのか?
Takashi J OZAKI
?
搁で学ぶ観察データでの因果推定
搁で学ぶ観察データでの因果推定
Hiroki Matsui
?
分散型强化学习手法の最近の动向と分散计算フレームワーク搁补测による実装の试み
分散型强化学习手法の最近の动向と分散计算フレームワーク搁补测による実装の试み
SusumuOTA
?
Computational Motor Control: Reinforcement Learning (JAIST summer course)
Computational Motor Control: Reinforcement Learning (JAIST summer course)
hirokazutanaka
?
NIPS KANSAI Reading Group #7: 逆強化学習の行動解析への応用
NIPS KANSAI Reading Group #7: 逆強化学習の行動解析への応用
Eiji Uchibe
?
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
tomitomi3 tomitomi3
?
Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...
Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...
Toru Fujino
?
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
?
心理学におけるベイズ统计の流行を整理する
心理学におけるベイズ统计の流行を整理する
Hiroshi Shimizu
?
Evolved policy gradients
Evolved policy gradients
Kenshi Abe
?
状態空間モデルの考え方?使い方 - TokyoR #38
状態空間モデルの考え方?使い方 - TokyoR #38
horihorio
?
北大調和系 DLゼミ A3C
北大調和系 DLゼミ A3C
Tomoya Oda
?
強化学習勉強会?論文紹介(第30回)Ensemble Contextual Bandits for Personalized Recommendation
強化学習勉強会?論文紹介(第30回)Ensemble Contextual Bandits for Personalized Recommendation
Naoki Nishimura
?
Decision Transformer: Reinforcement Learning via Sequence Modeling
Decision Transformer: Reinforcement Learning via Sequence Modeling
Yasunori Ozaki
?
Neural Rejuvenation: Improving Deep Network Training by Enhancing Computation...
Neural Rejuvenation: Improving Deep Network Training by Enhancing Computation...
Yosuke Shinya
?
#神奈川大学経営学総論 A (10/15) 競争戦略
#神奈川大学経営学総論 A (10/15) 競争戦略
Yasushi Hara
?
外国语教育研究における搁を用いた统计処理入门
外国语教育研究における搁を用いた统计処理入门
Yusaku Kawaguchi
?
复合システムネットワーク论を読む(公开版)
复合システムネットワーク论を読む(公开版)
考司 小杉
?
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
Masayoshi Kondo
?
なぜ統計学がビジネスの 意思決定において大事なのか?
なぜ統計学がビジネスの 意思決定において大事なのか?
Takashi J OZAKI
?
Ad

20170618論文読み会 伊藤