33. ReLU (Rectified Linear Unit)
?赤: ? ?(? ? ? + 0.5)
?青: log(1+exp(x))
?緑: max(0,x+N(0,σ(x))
35
Nair, V., & Hinton, G. E. (2010).
Rectified Linear Units Improve
Restricted Boltzmann Machines.
より
34. Deep Belief Network(DBN)
?deep learningの火付け役となったモ
デル [Hinton et al. 2006. A Fast Learning
Algorithm for Deep Belief Nets]
?最上位層のみ無向エッジでほかはす
べて有効エッジ
?下位層から順にRBMで学習(pre-
training)
?学習した値を初期値に順伝播型の
ニューラルネットとして学習(fine-
tuning)
?このとき,最上位に出力層を追加す
る(その重みはランダムに初期化)
36
37. Reference
?Bishop(2006), “Pattern Recognition and Machine Learning”
?Hinton(2002), ”Training products of experts by contrastive
divergence”
?Nair, V., & Hinton, G. E. (2010). ”Rectified Linear Units Improve
Restricted Boltzmann Machines”
?Salakhutdinov, R., & Hinton, G. (2009). “Deep Boltzmann
Machines”
?Hinton et al. (2006). “A Fast Learning Algorithm for Deep Belief
Nets”
?岡谷貴之(2015) “深層学習”
?“RBMから考えるDeep Learning ~黒魔術を添えて~”
http://qiita.com/t_Signull/items/f776aecb4909b7c5c116
?“Deep Learning Tutorial” http://deeplearning.net/tutorial/
40