ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
?
Introduction of Deep Reinforcement Learning, which was presented at domestic NLP conference.
言語処理学会第24回年次大会(NLP2018) での講演資料です。
http://www.anlp.jp/nlp2018/#tutorial
The document discusses hyperparameter optimization in machine learning models. It introduces various hyperparameters that can affect model performance, and notes that as models become more complex, the number of hyperparameters increases, making manual tuning difficult. It formulates hyperparameter optimization as a black-box optimization problem to minimize validation loss and discusses challenges like high function evaluation costs and lack of gradient information.
This document discusses generative adversarial networks (GANs) and their relationship to reinforcement learning. It begins with an introduction to GANs, explaining how they can generate images without explicitly defining a probability distribution by using an adversarial training process. The second half discusses how GANs are related to actor-critic models and inverse reinforcement learning in reinforcement learning. It explains how GANs can be viewed as training a generator to fool a discriminator, similar to how policies are trained in reinforcement learning.
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
?
Introduction of Deep Reinforcement Learning, which was presented at domestic NLP conference.
言語処理学会第24回年次大会(NLP2018) での講演資料です。
http://www.anlp.jp/nlp2018/#tutorial
The document discusses hyperparameter optimization in machine learning models. It introduces various hyperparameters that can affect model performance, and notes that as models become more complex, the number of hyperparameters increases, making manual tuning difficult. It formulates hyperparameter optimization as a black-box optimization problem to minimize validation loss and discusses challenges like high function evaluation costs and lack of gradient information.
This document discusses generative adversarial networks (GANs) and their relationship to reinforcement learning. It begins with an introduction to GANs, explaining how they can generate images without explicitly defining a probability distribution by using an adversarial training process. The second half discusses how GANs are related to actor-critic models and inverse reinforcement learning in reinforcement learning. It explains how GANs can be viewed as training a generator to fool a discriminator, similar to how policies are trained in reinforcement learning.
13. スペクトル上のフィルタがλのk次多項式と仮定
? ?? =
?=0
?
? ? ??
?
13
スペクトル上でのフィルタリング
スペクトル上でのフィルタリング
上の式を書き換え
?(?) =
?=0
??1
?(??) ?(??)? ? ?
(?)
?(??) =
?=?
???
?(?) ? ? ?
?
(?)
0
1
1
( )
( )
( )
T
N
H
H
H
?
?
? ?
? ?
? ?
? ?
? ?
? ?
? ?
U U f
フィルタ
グラフ上のフーリエ変換
14. 14
スペクトル上でのフィルタリング
?(?) =
?=0
??1
?(??) ?(??)? ? ?
(?)
λのk次多項式フィルタ
? ?? =
?=0
?
? ? ? ?
グラフ上のフーリエ変換
?(??) =
?=0
??1
?(?) ? ? ?
?
(?)
空間上でのフィルタリング
?(?) = ? ?? ? ? +
?? ? ?
? ?? ?(?)
1
0
( ) ( ) ( ) ( )i
N
i ii
f k F H u k
?
?
? ? ? λλ λ
1 1 *
0 0 0
( ) ( ) ( )i i
N K N p
ij p i
f j u j u k
? ?
? ? ?
? ? ? ?p λ λα λ
スペクトル上でのフィルタリング
15. ? 橙枠はグラフラプラシアン L の p 乗
? ?
= ?? ?
? ?
1 1 *
0 0 0
1
0 0
( ) ( ) ( )
( ) ( )
i i
N K N p
ij p i
N K p
kjj p
f j u j u k
f j L
? ?
? ? ?
?
? ?
?
?
? ? ?
? ?
p λ λ
p
α λ
α
1
0
( ) ( ) ( ) ( )i
N
i ii
f k F H u k
?
?
? ? ? λλ λ
15
スペクトル上でのフィルタリング
スペクトル上でのフィルタリング
?(?) =
?=0
??1
?(??) ?(??)? ? ?
(?)
λのk次多項式フィルタ
? ?? =
?=0
?
? ? ? ?
グラフ上のフーリエ変換
?(??) =
?=0
??1
?(?) ? ? ?
?
(?)
空間上でのフィルタリング
?(?) = ? ?? ? ? +
?? ? ?
? ?? ?(?)
16. ? 橙枠はグラフラプラシアン L の p 乗
? ?
= ?? ?
? ?
1 1 *
0 0 0
1 1 *
0 0 0
1
0 0
( ) ( ) ( )
( ) ( ) ( )
( ) ( )
i i
i i
N N K p
ii j p
N K N p
ij p i
N K p
kjj p
f j u j u k
f j u j u k
f j L
? ?
? ? ?
? ?
? ? ?
?
? ?
?
?
?
? ? ?
? ? ?
? ?
λ p λ
p λ λ
p
α λ
α λ
α
1
0
( ) ( ) ( ) ( )i
N
i ii
f k F H u k
?
?
? ? ? λλ λ
16
スペクトル上でのフィルタリング
? ?
=
? ?0
(0) ? ?0
(1) ? ?0
(2)
? ?1
(0) ? ?1
(1) ? ?1
(2)
? ?2
(0) ? ?2
(1) ? ?2
(2)
?0
?
0 0
0 ?1
?
0
0 0 ?2
?
? ?0
?
(0) ? ?1
?
(0) ? ?2
?
(0)
? ?0
?
(1) ? ?1
?
(1) ? ?2
?
(1)
? ?0
?
(2) ? ?1
?
(2) ? ?2
?
(2)
=
? ?0
(0) ? ?0
(1) ? ?0
(2)
? ?1
(0) ? ?1
(1) ? ?1
(2)
? ?2
(0) ? ?2
(1) ? ?2
(2)
? ?0
?
(0)?0
?
? ?1
?
(0)?0
?
? ?2
?
(0)?0
?
? ?0
?
(1)?1
?
? ?1
?
(1)?1
?
? ?2
?
(1)?1
?
? ?0
?
(2)?2
?
? ?1
?
(2)?2
?
? ?2
?
(2)?2
?
17. スペクトル上でのフィルタリング
? ?
= ?? ?
? ?
? ?? =
?=0
?
? ?(? ?) ??
空間上でのフィルタリング
?(?) =
?? ? ?
? ?? ?(?)
? スペクトル上でも空間上でのフィルタリングと
同じことを行うことが可能であると示された
空間上でのフィルタリング
? 注目ノードとその隣接ノードにフィルタ係数を
かけて和を求めること
17
スペクトル上でのフィルタリング
1 1 *
0 0 0
1
0 0
( ) ( ) ( )
( ) ( )
i i
N K N p
ij p i
N K p
kjj p
f j u j u k
f j L
? ?
? ? ?
?
? ?
?
?
? ? ?
? ?
p λ λ
p
α λ
α
1
0
( ) ( ) ( ) ( )i
N
i ii
f k F H u k
?
?
? ? ? λλ λ
(1)
(2)
? ??
スペクトル領域上でフィルタ
(式1)
? ??
空間上でのフィルタ
(式2)
=
18. スペクトル領域上での畳み込み
? = ?? ? ? ? ? ? = ? ? ??? ? ? = ? ? ? ?
? フィルタ? ?(?)
? ?(?)=
?=0
??1
? ? ? ?
? ? ?? を学習することで,
注目ノードからKステップ離れたノードまで
を畳み込む
グラフ上でのフィルタリングからグラフ上の畳み込みへの導出
18
スペクトル領域上でのフィルタリング
? フィルタ ? ??
? ?? =
?=0
?
? ?(? ?) ??
? ノードkに対してpステップで行ける
ノードに対してフィルタリングできる
1 1 *
0 0 0
1
0 0
( ) ( ) ( )
( ) ( )
i i
N K N p
ij p i
N K p
kjj p
f j u j u k
f j L
? ?
? ? ?
?
? ?
?
?
? ? ?
? ?
p λ λ
p
α λ
α
1
0
( ) ( ) ( ) ( )i
N
i ii
f k F H u k
?
?
? ? ? λλ λ