狠狠撸

狠狠撸Share a Scribd company logo
機械学習勉強会
第5回
SRA?鈴木真吾
今回の内容
詳解ディープラーニング 4.5 高度なテクニック
データ?パラメタは学習の結果に影響を与える。
ではどのようなデータ?パラメタを取るのがよいか?
データセット
重み
学習率
学習回数
データセット
重み
学習率
学習回数
データセットに関するテクニック
正規化
Batch Normalization (後半で説明)
正規化
X = X - X.mean(axis=1).reshape(len(X), 1)
値域が一定の範囲に収まるようにする
任意のデータで同じアプローチを取りたい
処理しやすいデータにする
平均は0になるようにする
特に次の場合は白色化という
平均が0
分散が1.0
データセット
重み
学習率
学習回数
どういう重みだとうれしいか?
前提としてデータセットに偏りがない
→ 重みにも偏りは少ないはず
すべて 0 にしたらどうなるか?
→ 誤差逆伝播の際に勾配の値も同じになって学習
が進まなくなってしまう
小さい標準偏差で分布させれば?
→ 小さいとやはり学習が進まない
結論
標準偏差はσ = 1.0で分布させて、適当な係数aをか
けて初期化しよう
python コードとしては
a * np.random.normal(size=shape)
活性化される前の値=次の層の入力となる
p = w xj
i=1
∑
n
ij i (4.2)
V ar[p ] =j
=
=
V ar [ w x
i=1
∑
n
ij i]
V ar
i=1
∑
n
[w xij i]
i=1
∑
n
?
?
?
+
+
(E[w ]) V ar[x ]ij
2
i
(E[x ]) V ar[w ]i
2
ij
V ar[w ]V ar[x ]ij i
?
?
?
(4.43)
(4.44)
(4.45)
補足
確率変数の期待値の積? (4.44から4.45の変形に
使用)
E[XY ] =
=
=
=
P (X = x, Y = y)xy
x,y
∑
P (X = x)P (Y = y)xy
x
∑
y
∑
P (X = x)x P (Y = y)xy
x
∑
y
∑
E[X]E[Y ]
補足
確率変数の分散
確率変数の分散の積
V ar[X] =E[X ] ? E[X]2 2
V ar[XY ] =
=
=
=
E[X Y ] ? E[X] E[Y ]2 2 2 2
E[X ]E[Y ] ? E[X] E[Y ]2 2 2 2
(V ar[X] + E[X] )(V ar[Y ] + E[Y ] )2 2
? E[X] E[Y ]2 2
V ar[X]V ar[Y ]
+ V ar[X]E[Y ] + V ar[Y ]E[X]2 2
(4.45) は
[x ] = 0とデータを正規化している
E[w ] = 0 と仮定する
すると次のようになる
i
ij
V ar[p ]j =
=
V ar[w ]V ar[x ]
i=1
∑
n
ij i
nV ar[w ]V ar[x ]ij i
(4.46)
(4.47)
p =j
V ar[p ] =j
w x
i=1
∑
n
ij i
nV ar[w ]V ar[x ]ij i
(4.2)
(4.47)
pの分散をxの分散に合わせたい場合、
V ar[p ] = V ar[x ]とすると、
V ar[w ] = 、V ar[aX] = a V ar[X]なので
とすればよい
j i
ij n
1 2
a = √
n
1
(4.48)
Pythonの式だと
np.sqrt(1.0 / n) * np.random.normal(size=shape)
V ar[P ]を決めるまでにあった仮定のとりかたによっ
て、初期化手法はいくつか考えられる
ij
LeCun?et?al.?1988
入力数の平方根でスケーリングした一様分布による初
期化
np.random.uniform(low=-np.sqrt(1.0 / n),
high=np.sqrt(1.0 / n),
size=shape)
Glorot?and?Bengio?2010
fan_in + fan_out でスケーリングした一様分布による
初期化
np.random.uniform(low=-np.sqrt(6.0 / (n_in + n_out)),
high=np.sqrt(6.0 / (n_in + n_out)),
size=shape)
He?et?al.?2015
ReLU を使った初期化
np.sqrt(2.0 / n) * np.random.normal(size=shape)
データセット
重み
学習率
学習回数
学習率に関するテクニック
モメンタム
Nesterov モメンタム
Adagrad
Adadelta
Adam
モメンタム
これまでは学習率は定数だったが、効率的に学習をすす
めるには
最初は大きく学習をすすめる
徐々に学習率を少なくする
モメンタムの考え方
学習率は一定
モメンタム項という調整用の項を追加して上記を表現
する
モデルのパラメータθ
Eのθに対する勾配を? E
ステップをt
とした時のパラーメタ更新式は次のようになる
γΔθ がモメンタム項
係数γ(< 1.0)は通常0.5から0.9に設定する
θ
Δθ =(t)
? η? E(θ) + γΔθθ
(t?1)
(4.49)
(t?1)
TensorFlow
def training(loss):
optimizer = tf.train.MomentumOptimizer(0.01, 0.9)
train_step = optimizer.minimize(loss)
return train_step
Keras
model.compile(loss='categorical_crossentropy',
optimizer=SGD(lr=0.01, momentum=0.9),
metrics=['accuracy'])
Nesterovモメンタム
(4.49)の変形
Δθ = θ ? θ = υ と変形して
υ =(t)
θ =(t)
? η? E(θ) + γΔθθ
(t?1)
θ ? υ(t?1) (t)
(4.51)
(4.52)
(t) (t) (t?1) (t)
υ =(t)
θ =(t)
? η? E(θ + γυ ) + γΔθθ
(t?1) (t?1)
θ ? υ(t?1) (t)
(4.53)
(4.54)
TensorFlow
optimizer = tf.train.MomentumOptimizer(
0.01, 0.9, use_nesterov=True)
Keras
optimizer = SGD(lr=0.01, momentum=0.9, nesterov=True
Adagrad
効率的に学習をすすめるには
最初は大きく学習をすすめる
徐々に学習率を少なくする
Adagrad(adaptive gradient algorithm)の考え方
学習率の値そのものを更新する。
Adagraは次の式
ただし、
?は1.0 × 10 ~ 1.0 × 10 程度の微小な項
0除算の回避用途
θ =i
(t)
θ ? gi
(t?1)
√G + ?ii
(t)
η
i
(t)
(4.56)
gi
G ii
(t)
: =
=
? E(θ )θ i
g ? g
τ =0
∑
t
i
(τ )
i
(τ )
(4.55)
(4.57)
?6 ?8
Gは対角行列なので、(4.56)は要素積に置き換えられる
通常の勾配降下法ではθ = θ ? ηg
G は、 t までの勾配の2乗和
直感的にはこれまでのステップで小さかった勾配の
成分が次のステップでは大きくなるように更新され
る
θ =i
(t)
θ ? ⊙ gi
(t?1)
√G + ?ii
(t)
η
i
(t)
(4.56)
i
(t)
i
(t?1)
i
(t)
ii
Adadelta
Adagrad の問題点
G は勾配の2乗の累積和=単調増加
学習のステップが進む毎に勾配にかかる係数が急
激に小さくなり、学習がすすまなくなる
Adadelta では
→ ステップ 0 からの全ての和でなく、定数w のステッ
プ文の和に制限する
実装としては非効率なので、実際には減衰平均する
(t)
「勾配の2乗」(= g ⊙ g )の移動平均E[g ]は
(以降ではg はg と表記)
t t t
2
E[g ]2
t = ρE[g ] + (1 ? ρ)g2
t?1 t
2
(4.59)
(t)
t
Adagradの式
このG_tをE[g ]で置は換える
さらに はRMS[g] に置き換えられて
θ =t+1 θ ? ⊙ gt
√G + ?t
η
t (4.60)
t
2
θ =t+1 θ ? gt
√E[g ] + ?2
t
η
t (4.61)
√E[g ]2
t t
θ =t+1 θ ? gt
RMS[g]t
η
t (4.62)
補足
RMSは2乗平均平方根 (root mean square)
RMS[x] =
?



x
N
1
i=1
∑
N
i
2
(C1)
さらに式変形すると(4.63)の式が得られる
ηに何が入るか考えた時、
左辺?右辺の「単位」は揃っているはず
Δθ はt ? 1までのΔθ のRMSから近似できる
と考えて、Adadeltaの式が得られる
となって学習率ηが自動的に計算できることになる
Δθ =t ? g
RMS[g]t
η
t (4.63)
t t
Δθ =t ? g
RMS[g]t
RMS[Δθ]t?1
t (4.66)
元の論文読むと
このΔxが Δθのこと
?x t for the current
time step is not known, so we assume the
curvature is locally
smooth and approximate ?x t by compute the
exponentially
decaying RMS over a window of size w of
previous ?x
“
“
RMSprop
RMSprop は Adadelta と同様に、Adagrad の学習率の
急激な減少を解決する手法
E[g?2]t = 0.9E[g?2] + 0.1g?2t?1 t (4.67)
θt+1 = θ ? gt
√E[g?2] + ?t
η
t (4.68)
Adam(adap ve?moment?es ma on)
つぎの2つをパラメータの更新式に使う方式
勾配の2乗の移動平均v := E[g ] の減衰平均
勾配の単純な移動平均m := E[g] の減衰平均
β , β ∈ [0, 1)はハイパーパラメタ
移動平均の減衰率を調整
t
2
t
t t
m =t
v =t
β m + (1 ? β )g1 t?1 1 t
β v + (1 ? β )g2 t?1 2 t
2
(4.69)
(4.70)
1 2
v ,m は真のモーメントから偏りがあるので、この偏りを0
にした推定値 , を求めたい。
について、v = 0で初期化した場合、v は
(1 ? β ) β ? g のような項もあるんじゃ
ないかと思うが、(1 ? β ) ? 1として無視されてい
ると思われる
t t
vt^ mt^
v =t β v + (1 ? β )g2 t?1 2 t
2
(4.70)
0 t
v =t (1 ? β ) β ? g2
i=1
∑
t
2
t?i
i
2
(4.71)
2
n
∑i=n
t
2
t?i
i
2
2
n
ここから2次モーメントの移動平均E[v ]と真の2次モー
メントE[g ]の関係を求めると
v =t (1 ? β ) β ? g2
i=1
∑
t
2
t?i
i
2
(4.71)
t
t
2
E[v ] =t
=
=
E [(1 ? β ) β ? g2
i=1
∑
t
2
t?i
i
2
]
E[g ] ? (1 ? β ) β + ζt
2
2
i=1
∑
t
2
t?i
E[g ] ? (1 ? β ) + ζt
2
2
t
(4.72)
(4.73)
(4.74)
補足
(4.73)から(4.47)の変形
=
=
=
(1 ? β) β
i=1
∑
t
t?i
(1 ? β)(β + β + ? + β + 1)t?1 t?2
????????????β + β + ? + β + 1t?1 t?2
? β ? β ? β ? ? ? βt t?1 t?2
? β + 1t
ζ = 0と近似できるようにハイパーパラメタの値を設定す
ると次のように推定できる。
m についても同様
以上から、パラメタの更新式は
=vt^
1 ? β2
t
vt
(4.75)
t
=mt^
1 ? β1
t
mt
(4.76)
θ =t θ ?t?1
+ ?√vt^
α
mt^ (4.77)
データセット
重み
学習率
学習回数
Early?Stopping
学習回数は
多いほど訓練データへの誤差は小さくなる
多すぎるとオーバーフィッティングが発生する
→ Early Stopping
手法としては「前のエポックの時と比べ誤差が増えたら
学習を打ち切る」
Early?Stopping?の擬似コード
for epoch in range(epochs):
loss = model.train()['loss']
if early_stopping(loss):
break
データセット
重み
学習率
学習回数
Batch?Normaliza on
前処理としての正規化
学習の際にはネットワーク内部で分散がかたよる
Batch Normalization
正規化をミニバッチに対しても行う手法
ミニバッチB = {x , x , ..., x }に対して1 2 m
μ =B
σ =B
2
x
m
1
i=1
∑
m
i
2
(x ? μ )
m
1
i=1
∑
m
i B
2
(4.79)
(4.80)
{y , y , ..., y } がBatch Normalization の出力
=xi^
y =i
√σ + ?B
2
x ? μi B
γ + βxi^
(4.81)
(4.82)
1 2 m
誤差関数Eに対して、γ、β、x の勾配を求めるi
?γ
?E
=
i=1
∑
m
?yi
?E
?γ
?yi
=
i=1
∑
m
?yi
?E
xi^
(4.83)
(4.84)
?β
?E
=
i=1
∑
m
?yi
?E
?β
?yi
=
i=1
∑
m
?yi
?E
(4.83)
(4.85)
=
?xi
?E
=
+ +
?xi^
?E
?xi
?xi^
?σB
2
?E
?xi
?σB
2
?μB
?E
?xi
?μB
(4.87)
+ +
?xi^
?E
√σ + ?B
2
1
?σB
2
?E
m
2(x ? μ )i B
?μB
?E
m
1
(4.88)
は既知。他の項は?yi
?E
=
?xi^
?E
=
?yi
?E
?xi^
?yi
? γ
?yi
?E
(4.89)
(4.90)
=
?σB
2
?E
=
i=1
∑
m
?xi^
?E
σB
2
?xi^
(4.91)
? (x ? μ ) ? (σ + ?)
i=1
∑
m
?xi^
?E
i B
2
?1
B
2 ? 2
3
(4.92)
前の層の勾配を現在の層の情報だけで求められるので、
誤差逆伝播法がつかえる。
=
?μB
?E
=
+
i=1
∑
m
?xi^
?E
μB
?xi^
?σB
2
?E
μB
?σB
2
i=1
∑
m
?xi^
?E
√σ + ?B
2
?1
+
i=1
∑
m
?σB
2
?E
m
?2(x ? μ )i B
(4.93)
(4.94)
これまでの層の活性化は
Batch Normalization では次のようになりバイアス項が
なくなる
h = f(W x + b) (4.95)
h = f(BN (W x))γ,β (4.96)
まとめ
初期化方法はいろいろあり、どれが最適とは必ずはい
えない
とはいえAdadelta とBatch Normalization は良い
らしい
問題によって最適な初期化を探すことになりそう

More Related Content

What's hot (20)

PRML 4.1 Discriminant Function
PRML 4.1 Discriminant FunctionPRML 4.1 Discriminant Function
PRML 4.1 Discriminant Function
Shintaro Takemura
?
双対性
双対性双対性
双対性
Yoichi Iwata
?
続?わかりやすいパターン認識 9章
続?わかりやすいパターン認識 9章続?わかりやすいパターン認識 9章
続?わかりやすいパターン認識 9章
hakusai
?
劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.4節劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.4節
Hakky St
?
JOIss2020 発表資料
JOIss2020 発表資料JOIss2020 発表資料
JOIss2020 発表資料
mdkcpp 1015
?
线形识别モデル
线形识别モデル线形识别モデル
线形识别モデル
貴之 八木
?
スパースモデリング、スパースコーディングとその数理(第11回奥叠础若手の会)
スパースモデリング、スパースコーディングとその数理(第11回奥叠础若手の会)スパースモデリング、スパースコーディングとその数理(第11回奥叠础若手の会)
スパースモデリング、スパースコーディングとその数理(第11回奥叠础若手の会)
narumikanno0918
?
贰惭アルコ?リス?ム
贰惭アルコ?リス?ム贰惭アルコ?リス?ム
贰惭アルコ?リス?ム
moritama1515
?
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
?
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
PILCO - 第一回高橋研究室モデルベース強化学習勉強会PILCO - 第一回高橋研究室モデルベース強化学習勉強会
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
Shunichi Sekiguchi
?
様々な全域木问题
様々な全域木问题様々な全域木问题
様々な全域木问题
tmaehara
?
文字列カーネルによる辞書なしツイート分類 ?文字列カーネル入門?
文字列カーネルによる辞書なしツイート分類 ?文字列カーネル入門?文字列カーネルによる辞書なしツイート分類 ?文字列カーネル入門?
文字列カーネルによる辞書なしツイート分類 ?文字列カーネル入門?
Takeshi Arabiki
?
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsFisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
Takao Yamanaka
?
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
Deep Learning JP
?
正则化つき线形モデル(「入门机械学习第6章」より)
正则化つき线形モデル(「入门机械学习第6章」より)正则化つき线形モデル(「入门机械学习第6章」より)
正则化つき线形モデル(「入门机械学习第6章」より)
Eric Sartre
?
4thNLPDL
4thNLPDL4thNLPDL
4thNLPDL
Sho Takase
?
MLaPP 9章 「一般化線形モデルと指数型分布族」
MLaPP 9章 「一般化線形モデルと指数型分布族」MLaPP 9章 「一般化線形モデルと指数型分布族」
MLaPP 9章 「一般化線形モデルと指数型分布族」
moterech
?
PRML 第14章
PRML 第14章PRML 第14章
PRML 第14章
Akira Miyazawa
?
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Preferred Networks
?
続?わかりやすいパターン認識 9章
続?わかりやすいパターン認識 9章続?わかりやすいパターン認識 9章
続?わかりやすいパターン認識 9章
hakusai
?
劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.4節劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.4節
Hakky St
?
JOIss2020 発表資料
JOIss2020 発表資料JOIss2020 発表資料
JOIss2020 発表資料
mdkcpp 1015
?
スパースモデリング、スパースコーディングとその数理(第11回奥叠础若手の会)
スパースモデリング、スパースコーディングとその数理(第11回奥叠础若手の会)スパースモデリング、スパースコーディングとその数理(第11回奥叠础若手の会)
スパースモデリング、スパースコーディングとその数理(第11回奥叠础若手の会)
narumikanno0918
?
贰惭アルコ?リス?ム
贰惭アルコ?リス?ム贰惭アルコ?リス?ム
贰惭アルコ?リス?ム
moritama1515
?
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
?
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
PILCO - 第一回高橋研究室モデルベース強化学習勉強会PILCO - 第一回高橋研究室モデルベース強化学習勉強会
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
Shunichi Sekiguchi
?
様々な全域木问题
様々な全域木问题様々な全域木问题
様々な全域木问题
tmaehara
?
文字列カーネルによる辞書なしツイート分類 ?文字列カーネル入門?
文字列カーネルによる辞書なしツイート分類 ?文字列カーネル入門?文字列カーネルによる辞書なしツイート分類 ?文字列カーネル入門?
文字列カーネルによる辞書なしツイート分類 ?文字列カーネル入門?
Takeshi Arabiki
?
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsFisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
Takao Yamanaka
?
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
Deep Learning JP
?
正则化つき线形モデル(「入门机械学习第6章」より)
正则化つき线形モデル(「入门机械学习第6章」より)正则化つき线形モデル(「入门机械学习第6章」より)
正则化つき线形モデル(「入门机械学习第6章」より)
Eric Sartre
?
MLaPP 9章 「一般化線形モデルと指数型分布族」
MLaPP 9章 「一般化線形モデルと指数型分布族」MLaPP 9章 「一般化線形モデルと指数型分布族」
MLaPP 9章 「一般化線形モデルと指数型分布族」
moterech
?
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Preferred Networks
?

Similar to 社内機械学習勉強会 #5 (20)

JSIAM_2019_9_4
JSIAM_2019_9_4JSIAM_2019_9_4
JSIAM_2019_9_4
KoutaFunakoshi
?
Algorithm 速いアルゴリズムを書くための基礎
Algorithm 速いアルゴリズムを書くための基礎Algorithm 速いアルゴリズムを書くための基礎
Algorithm 速いアルゴリズムを書くための基礎
Kenji Otsuka
?
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
?
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
ssuserf4860b
?
Text Categorization
Text CategorizationText Categorization
Text Categorization
cympfh
?
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
Zansa
?
ベイズ推论による机械学习入门 第4章
ベイズ推论による机械学习入门 第4章ベイズ推论による机械学习入门 第4章
ベイズ推论による机械学习入门 第4章
YosukeAkasaka
?
量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析
Shu Tanaka
?
How to study stat
How to study statHow to study stat
How to study stat
Ak Ok
?
Prml3.5 エビデンス近似?
Prml3.5 エビデンス近似?Prml3.5 エビデンス近似?
Prml3.5 エビデンス近似?
Yuki Matsubara
?
PRML ヘ?イス?ロシ?スティック回帰
PRML ヘ?イス?ロシ?スティック回帰PRML ヘ?イス?ロシ?スティック回帰
PRML ヘ?イス?ロシ?スティック回帰
hagino 3000
?
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
t2tarumi
?
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
?
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
takutori
?
公開鍵暗号2: NP困難性
公開鍵暗号2: NP困難性公開鍵暗号2: NP困難性
公開鍵暗号2: NP困難性
Joe Suzuki
?
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
Akihiro Nitta
?
Algorithm 速いアルゴリズムを書くための基礎
Algorithm 速いアルゴリズムを書くための基礎Algorithm 速いアルゴリズムを書くための基礎
Algorithm 速いアルゴリズムを書くための基礎
Kenji Otsuka
?
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
?
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
ssuserf4860b
?
Text Categorization
Text CategorizationText Categorization
Text Categorization
cympfh
?
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
Zansa
?
ベイズ推论による机械学习入门 第4章
ベイズ推论による机械学习入门 第4章ベイズ推论による机械学习入门 第4章
ベイズ推论による机械学习入门 第4章
YosukeAkasaka
?
量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析
Shu Tanaka
?
How to study stat
How to study statHow to study stat
How to study stat
Ak Ok
?
Prml3.5 エビデンス近似?
Prml3.5 エビデンス近似?Prml3.5 エビデンス近似?
Prml3.5 エビデンス近似?
Yuki Matsubara
?
PRML ヘ?イス?ロシ?スティック回帰
PRML ヘ?イス?ロシ?スティック回帰PRML ヘ?イス?ロシ?スティック回帰
PRML ヘ?イス?ロシ?スティック回帰
hagino 3000
?
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
t2tarumi
?
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
?
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
takutori
?
公開鍵暗号2: NP困難性
公開鍵暗号2: NP困難性公開鍵暗号2: NP困難性
公開鍵暗号2: NP困難性
Joe Suzuki
?
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
Akihiro Nitta
?

More from shingo suzuki (15)

システムパフォーマンス勉强会#8
システムパフォーマンス勉强会#8システムパフォーマンス勉强会#8
システムパフォーマンス勉强会#8
shingo suzuki
?
システムパフォーマンス勉强会#6
システムパフォーマンス勉强会#6システムパフォーマンス勉强会#6
システムパフォーマンス勉强会#6
shingo suzuki
?
システムパフォーマンス勉强会#5
システムパフォーマンス勉强会#5システムパフォーマンス勉强会#5
システムパフォーマンス勉强会#5
shingo suzuki
?
システムパフォーマンス勉强会#4
システムパフォーマンス勉强会#4システムパフォーマンス勉强会#4
システムパフォーマンス勉强会#4
shingo suzuki
?
システムパフォーマンス勉强会#4
システムパフォーマンス勉强会#4システムパフォーマンス勉强会#4
システムパフォーマンス勉强会#4
shingo suzuki
?
システムパフォーマンス勉强会#1
システムパフォーマンス勉强会#1システムパフォーマンス勉强会#1
システムパフォーマンス勉强会#1
shingo suzuki
?
システムパフォーマンス勉強会 #0
システムパフォーマンス勉強会 #0システムパフォーマンス勉強会 #0
システムパフォーマンス勉強会 #0
shingo suzuki
?
ドメイン駆动设计勉强会発表
ドメイン駆动设计勉强会発表ドメイン駆动设计勉强会発表
ドメイン駆动设计勉强会発表
shingo suzuki
?
社内 DDD 勉強会 #5
社内 DDD 勉強会 #5社内 DDD 勉強会 #5
社内 DDD 勉強会 #5
shingo suzuki
?
社内 DDD 勉強会 #4
社内 DDD 勉強会 #4社内 DDD 勉強会 #4
社内 DDD 勉強会 #4
shingo suzuki
?
社内 DDD 勉強会 #3
社内 DDD 勉強会 #3社内 DDD 勉強会 #3
社内 DDD 勉強会 #3
shingo suzuki
?
Google I/O 2016 報告会
Google I/O 2016 報告会Google I/O 2016 報告会
Google I/O 2016 報告会
shingo suzuki
?
社内 DDD 勉強会 #2
社内 DDD 勉強会 #2社内 DDD 勉強会 #2
社内 DDD 勉強会 #2
shingo suzuki
?
社内 DDD 勉強会第1回
社内 DDD 勉強会第1回社内 DDD 勉強会第1回
社内 DDD 勉強会第1回
shingo suzuki
?
SPIN で
SPIN でSPIN で
SPIN で
shingo suzuki
?
システムパフォーマンス勉强会#8
システムパフォーマンス勉强会#8システムパフォーマンス勉强会#8
システムパフォーマンス勉强会#8
shingo suzuki
?
システムパフォーマンス勉强会#6
システムパフォーマンス勉强会#6システムパフォーマンス勉强会#6
システムパフォーマンス勉强会#6
shingo suzuki
?
システムパフォーマンス勉强会#5
システムパフォーマンス勉强会#5システムパフォーマンス勉强会#5
システムパフォーマンス勉强会#5
shingo suzuki
?
システムパフォーマンス勉强会#4
システムパフォーマンス勉强会#4システムパフォーマンス勉强会#4
システムパフォーマンス勉强会#4
shingo suzuki
?
システムパフォーマンス勉强会#4
システムパフォーマンス勉强会#4システムパフォーマンス勉强会#4
システムパフォーマンス勉强会#4
shingo suzuki
?
システムパフォーマンス勉强会#1
システムパフォーマンス勉强会#1システムパフォーマンス勉强会#1
システムパフォーマンス勉强会#1
shingo suzuki
?
システムパフォーマンス勉強会 #0
システムパフォーマンス勉強会 #0システムパフォーマンス勉強会 #0
システムパフォーマンス勉強会 #0
shingo suzuki
?
ドメイン駆动设计勉强会発表
ドメイン駆动设计勉强会発表ドメイン駆动设计勉强会発表
ドメイン駆动设计勉强会発表
shingo suzuki
?
社内 DDD 勉強会 #5
社内 DDD 勉強会 #5社内 DDD 勉強会 #5
社内 DDD 勉強会 #5
shingo suzuki
?
社内 DDD 勉強会 #4
社内 DDD 勉強会 #4社内 DDD 勉強会 #4
社内 DDD 勉強会 #4
shingo suzuki
?
社内 DDD 勉強会 #3
社内 DDD 勉強会 #3社内 DDD 勉強会 #3
社内 DDD 勉強会 #3
shingo suzuki
?
Google I/O 2016 報告会
Google I/O 2016 報告会Google I/O 2016 報告会
Google I/O 2016 報告会
shingo suzuki
?
社内 DDD 勉強会 #2
社内 DDD 勉強会 #2社内 DDD 勉強会 #2
社内 DDD 勉強会 #2
shingo suzuki
?
社内 DDD 勉強会第1回
社内 DDD 勉強会第1回社内 DDD 勉強会第1回
社内 DDD 勉強会第1回
shingo suzuki
?

Recently uploaded (11)

狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
Matsushita Laboratory
?
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
CRI Japan, Inc.
?
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
sugiuralab
?
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
Matsushita Laboratory
?
LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3
LFDT Tokyo Meetup
?
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
sugiuralab
?
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
Industrial Technology Research Institute (ITRI)(工業技術研究院, 工研院)
?
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
harmonylab
?
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
harmonylab
?
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
Matsushita Laboratory
?
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
NTT DATA Technology & Innovation
?
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
Matsushita Laboratory
?
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
CRI Japan, Inc.
?
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
sugiuralab
?
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
Matsushita Laboratory
?
LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3
LFDT Tokyo Meetup
?
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
sugiuralab
?
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
Industrial Technology Research Institute (ITRI)(工業技術研究院, 工研院)
?
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
harmonylab
?
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
harmonylab
?
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
Matsushita Laboratory
?
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
NTT DATA Technology & Innovation
?

社内機械学習勉強会 #5