狠狠撸

狠狠撸Share a Scribd company logo
カジュアル勉強会 @仙台
Excelで機械学習入門 第6回
株式会社 エクテック
データサイエンティスト
第10回までの流れ
1回~3回 4回~10回
AI周辺の
基本知識
最適化の基本
推論の基本
重回帰分析
機械学習
サポートベクタマシン
ナイーブベイズ
ニューラルネットワーク
RNN/BPTT
強化学習/Q学習
前段
勉强会に参加する以上...
『なにか』を
持って帰って欲しい
『すべて』は難しいけれど
気になった、興味をもった
キーワードでも良いので
?元に持って帰って
いただけると幸いです
環境について
(Surroundings)
Excel 2013, 2016
Google Spreadsheets
本日のアジェンダ
1. 誤差逆伝播法(バックプロパゲーション法)
2. 误差逆伝播法を贰虫肠别濒で体験
誤差逆伝播法
(バックプロパゲーション法)
前回学んだ
ニューラルネットワーク
そのニューラルネットワークの
重みと閾値を決定するために利?
『ユニットの誤差』δ(デルタ)
を使い、?倒な微分計算を
数列の漸化式で回避する?法
4 ? 3 画素の??2値画像として読み取った
「0」,「1」の?書き?字画像を識別する
ニューラルネットワークを作成します。
学習?画像データは55枚とします。
前回のお话で
訓練データから求めた誤差の総和E
?的関数となるEを最?にする
重みと閾値を探す
训练データは55枚あるので
…
{t1, t2} …
正解ラベルtの組は55個ある
(今回は”0”,”1”の数字データなので
学習の際にあらかじめ ”0” or “1”の
ラベルがふられている)
{t1, t2} {t1, t2} {t1, t2}
E = e1 + e2 + … + e55
ek = {(t1[k]-z1[k]) + (t2[k]-z2[k]) }
Z1
Z2
t1
t2
z1
z2
出?層
k番?の
画像
計算
出? 理想値
2 2
……
k番?
1番?
55番?
学習データ
……
k番?
1番?
55番?
学習データ
ニューラルネット
……
k番?
1番?
55番?
学習データ
ニューラルネット
e1 = {(t1[1]-z1[1]) + (t2[1]-z2[1]) }
2
ek = {(t1[k]-z1[k]) + (t2[k]-z2[k]) }
e55 = {(t1[55]-z1[55]) + (t2[55]-z2[55]) }
2 2
2 2
……
……
誤差
2
予測値の算出
……
k番?
1番?
55番?
学習データ
ニューラルネット
e1 = {(t1[1]-z1[1]) + (t2[1]-z2[1]) }
2
ek = {(t1[k]-z1[k]) + (t2[k]-z2[k]) }
e55 = {(t1[55]-z1[55]) + (t2[55]-z2[55]) }
2 2
2 2
……
……
誤差
2
0
0
1
……
正解
t1[1]=1
t2[1]=0
t1[k]=1
t2[k]=0
t1[55]=0
t2[55]=1
……
理想値
予測値の算出
……
k番?
1番?
55番?
e1 = {(t1[1]-z1[1]) + (t2[1]-z2[1]) }
2 2
ek = {(t1[k]-z1[k]) + (t2[k]-z2[k]) }
e55 = {(t1[55]-z1[55]) + (t2[55]-z2[55]) }
2 2
2 2
……
……
0
0
1
……
学習データ 誤差
ニューラルネット
予測値の算出
正解
t1[1]=1
t2[1]=0
t1[k]=1
t2[k]=0
t1[55]=0
t2[55]=1
……
理想値
E = e1 + e2 + … + e55
?的関数
さて、ここで?的関数を
最?化するには
今まで学んできた内容ならば
勾配降下法を?いる?
勾配降下法の式を书き下すと
?的関数Eにおいて、重み w11, …,w11, …と
閾値 θ1, … ,θ1, … を順に
w11+Δw11, …, θ1+Δθ1, …
H H H H
w11+Δw11, …, θ1+Δθ1, …
O O O O
H O
H O
と変化させたときに?的関数Eが最も?さく
なるのは次の関係が成り?つときである
(w11, … , θ1, … , w11, …, θ1, …)
= - η(
H H O O
δE
δw11
δE
δθ1
δE
δw11
δE
δθ1
H OH O,…, ,…, ,…, ,… )
これを計算しようとすると
途?もない計算を?うことになる
※たかだか55枚なのに
そこで
誤差逆伝播法の登場
そもそも?的関数Eは 平?誤差の和
E = e1 + e2 + … + e55
そもそも?的関数Eは 平?誤差の和
E = e1 + e2 + … + e55
つまり?的関数Eの勾配は、
平?誤差の和の勾配
そもそも?的関数Eは 平?誤差の和
E = e1 + e2 + … + e55
つまり?的関数Eの勾配は、
平?誤差の和の勾配
さきにeの勾配を計算して、最後に
それらの和を求めるとEの勾配となる
さきにeの勾配を計算して、最後に
それらの和を求めるとEの勾配となる
E
δE
δw
δE
δθ
δe1
δw
δe2
δw
δe55
δw
δe1
δθ
δe2
δθ
δe55
δθ
e1 e2 e55… … …
ここで
『ユニットの誤差』の導?
誤差逆伝播法の仕組みをみていく
※数学的にみていくと難解であるため
ここではイメージのみ
?的関数Eにおいて、重み w11, …,w11, …と
閾値 θ1, … ,θ1, … を順に
w11+Δw11, …, θ1+Δθ1, …
H H H H
w11+Δw11, …, θ1+Δθ1, …
O O O O
H O
H O
と変化させたときに?的関数Eが最も?さく
なるのは次の関係が成り?つときである
(w11, … , θ1, … , w11, …, θ1, …)
= - η(
H H O O
δE
δw11
δE
δθ1
δE
δw11
δE
δθ1
H OH O,…, ,…, ,…, ,… )
ユニットごとに、ユニット間の
重みや閾値を計算しようとするから
?変なことになる
じゃあ、ユニット単位で
まとめて誤差を考えれば良いじゃない
1. ユニットの誤差ξの導?
2. 勾配を、ユニットの誤差ξから算出
3. 出?層の『ユニットの誤差』を算出
4. 誤差逆伝播法から中間層の
? 『ユニット誤差』を求める
i Xi
Hj
Zk
i番?の
ニューロン
(i=1,2,...,12)
j番?の
ニューロン
(j=1,2,3)
k番?の
ニューロン
(k=1,2)
wji wkj
O
ネットワークの
情報伝達の?向
誤差逆伝播法
θj θk
OH
H
Xi Hj Zk
隠れ層
(Hidden layer)
??層
(Input layer)
出?層
(Output layer)
i は??層の中の
上からの位置を
?すとする
j は隠れ層の中の
上からの位置を
?すとする
k は出?層の中の
上からの位置を
?すとする
Hj
Zk
Xi ユニットXi の出?xi
ユニットHj の出?hj
ユニットZkの出?zk
??字は、ユニット名を
??字は、ユニットの出?変数を表すことにします
sj
隠れ層
(Hidden layer)
j番?のニューロン
出?層
(Output layer)
k番?のニューロン
??の
線形和
H
θj
H
wji
H
??層 i番?の
ニューロン
sk
??の
線形和
O
θk
O
wkj
O
隠れ層 j番?の
ニューロン
1. ユニットの誤差ξの導?
δe
δsj
ξj = (j=1,2,3)
δe
δsk
, ξj = (k=1,2)OH
1. ユニットの誤差ξの導?
δe
δsj
ξj = (j=1,2,3)
δe
δsk
, ξk = (k=1,2)OH
2. 勾配を、ユニットの誤差ξから算出
δe
δwji
H = ξj xi ,
H δe
δθj
H = -ξj
H
(i=1,2, …, 12, j=1,2,3)
δe
δwkj
O = ξk hj ,
O δe
δθk
O = -ξk
O
(j=1,2,3, k=1,2)
3. 出?層の『ユニットの誤差』を算出
ξk =
O δe
δsk
O =
δe
δzk
δzk
δsk
O =
δe
δzk
= a(sk)
O
3. 出?層の『ユニットの誤差』を算出
ξk =
O δe
δsk
O =
δe
δzk
δzk
δsk
O =
δe
δzk
= a(sk)
O
??で、 e = 1/2{(t1-z1) + (t2-z2) }2 2
なので、※計算のしやすさから 1/2倍している
δe
δz1
= -(t1 - z1),
δe
δz2
= -(t2 - z2)
3. 出?層の『ユニットの誤差』を算出
ξk =
O δe
δsk
O =
δe
δzk
δzk
δsk
O =
δe
δzk
= a(sk)
O
より
δe
δz1
= -(t1 - z1),
δe
δz2
= -(t2 - z2)
ξ1 = -(t1 - z1) a(s1), ξ2 = -(t2 - z2) a(s2),
O OO O
3. 出?層の『ユニットの誤差』を算出
ξk =
O δe
δsk
O =
δe
δzk
δzk
δsk
O =
δe
δzk
= a(sk)
O
より
δe
δz1
= -(t1 - z1),
δe
δz2
= -(t2 - z2)
ξ1 = -(t1 - z1) a(s1), ξ2 = -(t2 - z2) a(s2),
O OO O
既知の値なので誤差 ξk
O
が求まる
4. 誤差逆伝播法から中間層の
? 『ユニット誤差』を求める
※算出を実際にトライしてみてください
ξj = (ξ1w1j + ξ2w2j ) a(sj) (i=1,2,3)
H O O O O H
4. 誤差逆伝播法から中間層の
? 『ユニット誤差』を求める
※算出を実際にトライしてみてください
ξj = (ξ1w1j + ξ2w2j ) a(sj) (i=1,2,3)
H O O O O H
この仕組みによって、
?倒な微分計算を?わず、
漸化式で解くことが可能となる
ニューラルネットワークの
計算は、隠れ層(中間層)から出?層へ
??、『ユニットの誤差』の計算は
出?層から隠れ層(中間層)へ
これが
誤差逆伝播法
误差逆伝播法を贰虫肠别濒で体験
Excel推奨
※計算重いので注意してください
1. 訓練データの準備
訓練データ
55枚
??なので、0, 1で表現
2. 重みと閾値の初期化
勾配降下法の
ステップ幅を決める
初期値を設定
(ランダム)
3. ユニットの出?値と
活性化関数の微分値を計算
1番?の画像に対して
隠れ層と出?層の
各ユニットの線形和?
活性化関数の微分値?
平?誤差eを計算
4. 誤差逆伝播法から
各層のユニット誤差ξを計算
ユニットの
誤差を計算
5.平?誤差e の勾配を計算
ユニットの
誤差を計算をしたので、
平?誤差の勾配を
次に計算
6. 訓練データ全てについて関数を
コピー&Eの勾配を計算
55枚分を
横にコピペ
55枚分の、平?誤差eの勾配を合計して
?的関数 Eを計算
7. 勾配降下法を利?して
重みと閾値を計算
勾配降下法で、
新たな重みと閾値を計算
並?して、
Eの勾配の総和を計算
8. 3.~7.を繰り返し計算
50回?の計算
そのときの重みと閾値
いざ、テスト
Casual learning machine learning with_excel_no6
いかがでしたでしょうか?
ニューラルネットワーク
感覚的にわかってきたのでは?
次回以降、
深層学習に?っていきます
EoF
Ad

Recommended

PDF
Casual learning machine_learning_with_excel_no7
KazuhiroSato8
?
PDF
Casual learning-machinelearningwithexcelno8
KazuhiroSato8
?
PDF
Casual learning machine learning with_excel_no5
KazuhiroSato8
?
PDF
Casual learning machine learning with_excel_no2
KazuhiroSato8
?
PDF
Casual learning machine learning with_excel_no3
KazuhiroSato8
?
PDF
Casual learning machine learning with_excel_no4
KazuhiroSato8
?
PDF
Large-Scale Object Classification Using Label Relation Graphs
Takuya Minagawa
?
PDF
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
?
PDF
深层学习と确率プログラミングを融合した贰诲飞补谤诲について
ryosuke-kojima
?
PDF
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
?
PDF
130604 fpgax kibayos
Mikio Yoshida
?
PDF
Clustering _ishii_2014__ch10
Kota Mori
?
PDF
机械学习による统计的実験计画(ベイズ最适化を中心に)
Kota Matsui
?
PDF
はし?めてのハ?ターン認識輪読会 10章後半
koba cky
?
PDF
20170408cvsaisentan6 2 4.3-4.5
Takuya Minagawa
?
PDF
DS Exercise Course 3
大貴 末廣
?
PDF
20170422 数学カフェ Part1
Kenta Oono
?
PDF
グラフニューラルネットワーク入门
ryosuke-kojima
?
PDF
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
?
PDF
Very helpful python code to find coefficients of the finite difference method
智啓 出川
?
PDF
机械学习と深层学习の数理
Ryo Nakamura
?
PDF
2値分类?多クラス分类
t dev
?
PDF
Fisher Vectorによる画像認識
Takao Yamanaka
?
PDF
Recent Advances on Transfer Learning and Related Topics Ver.2
Kota Matsui
?
PPTX
20160716 ICML paper reading, Learning to Generate with Memory
Shinagawa Seitaro
?
PDF
笔搁惭尝の线形回帰モデル(线形基底関数モデル)
Yasunori Ozaki
?
PPTX
170318 第3回関西NIPS+読み会: Learning What and Where to Draw
Shinagawa Seitaro
?
PPTX
Pythonとdeep learningで手書き文字認識
Ken Morishita
?
PPTX
Deep learning chapter4 ,5
ShoKumada
?
PPTX
PRML Chapter 5
Masahito Ohue
?

More Related Content

What's hot (20)

PDF
深层学习と确率プログラミングを融合した贰诲飞补谤诲について
ryosuke-kojima
?
PDF
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
?
PDF
130604 fpgax kibayos
Mikio Yoshida
?
PDF
Clustering _ishii_2014__ch10
Kota Mori
?
PDF
机械学习による统计的実験计画(ベイズ最适化を中心に)
Kota Matsui
?
PDF
はし?めてのハ?ターン認識輪読会 10章後半
koba cky
?
PDF
20170408cvsaisentan6 2 4.3-4.5
Takuya Minagawa
?
PDF
DS Exercise Course 3
大貴 末廣
?
PDF
20170422 数学カフェ Part1
Kenta Oono
?
PDF
グラフニューラルネットワーク入门
ryosuke-kojima
?
PDF
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
?
PDF
Very helpful python code to find coefficients of the finite difference method
智啓 出川
?
PDF
机械学习と深层学习の数理
Ryo Nakamura
?
PDF
2値分类?多クラス分类
t dev
?
PDF
Fisher Vectorによる画像認識
Takao Yamanaka
?
PDF
Recent Advances on Transfer Learning and Related Topics Ver.2
Kota Matsui
?
PPTX
20160716 ICML paper reading, Learning to Generate with Memory
Shinagawa Seitaro
?
PDF
笔搁惭尝の线形回帰モデル(线形基底関数モデル)
Yasunori Ozaki
?
PPTX
170318 第3回関西NIPS+読み会: Learning What and Where to Draw
Shinagawa Seitaro
?
PPTX
Pythonとdeep learningで手書き文字認識
Ken Morishita
?
深层学习と确率プログラミングを融合した贰诲飞补谤诲について
ryosuke-kojima
?
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
?
130604 fpgax kibayos
Mikio Yoshida
?
Clustering _ishii_2014__ch10
Kota Mori
?
机械学习による统计的実験计画(ベイズ最适化を中心に)
Kota Matsui
?
はし?めてのハ?ターン認識輪読会 10章後半
koba cky
?
20170408cvsaisentan6 2 4.3-4.5
Takuya Minagawa
?
DS Exercise Course 3
大貴 末廣
?
20170422 数学カフェ Part1
Kenta Oono
?
グラフニューラルネットワーク入门
ryosuke-kojima
?
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
?
Very helpful python code to find coefficients of the finite difference method
智啓 出川
?
机械学习と深层学习の数理
Ryo Nakamura
?
2値分类?多クラス分类
t dev
?
Fisher Vectorによる画像認識
Takao Yamanaka
?
Recent Advances on Transfer Learning and Related Topics Ver.2
Kota Matsui
?
20160716 ICML paper reading, Learning to Generate with Memory
Shinagawa Seitaro
?
笔搁惭尝の线形回帰モデル(线形基底関数モデル)
Yasunori Ozaki
?
170318 第3回関西NIPS+読み会: Learning What and Where to Draw
Shinagawa Seitaro
?
Pythonとdeep learningで手書き文字認識
Ken Morishita
?

Similar to Casual learning machine learning with_excel_no6 (20)

PPTX
Deep learning chapter4 ,5
ShoKumada
?
PPTX
PRML Chapter 5
Masahito Ohue
?
PPTX
W8PRML5.1-5.3
Masahito Ohue
?
PDF
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
hirokazutanaka
?
PDF
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
Akihiro Nitta
?
PPTX
Back propagation
T2C_
?
PPTX
深层学习と罢别苍蝉辞谤贵濒辞飞入门
tak9029
?
PDF
PRML_from5.1to5.3.1
禎晃 山崎
?
PDF
PRML5
Hidekazu Oiwa
?
PDF
ゼロから作るDeepLearning 5章 輪読
KCS Keio Computer Society
?
PDF
A yet another brief introduction to neural networks
Yuta Kikuchi
?
PDF
深层学习(讲谈社)のまとめ(1章~2章)
okku apot
?
PDF
20150803.山口大学集中讲义
Hayaru SHOUNO
?
PPTX
PRML 5.3-5.3.4 誤差逆伝播
KokiTakamiya
?
PDF
PRML Chapter 5 (5.0-5.4)
Shogo Nakamura
?
PDF
わかりやすいハ?ターン认识冲3章
weda654
?
PDF
厂骋顿による顿别别辫尝别补谤苍颈苍驳の学习
Masashi (Jangsa) Kawaguchi
?
PDF
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
?
PDF
Deep learning実装の基礎と実践
Seiya Tokui
?
PDF
20150310 第1回 ディープラーニング勉強会
哲朗 島田
?
Deep learning chapter4 ,5
ShoKumada
?
PRML Chapter 5
Masahito Ohue
?
W8PRML5.1-5.3
Masahito Ohue
?
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
hirokazutanaka
?
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
Akihiro Nitta
?
Back propagation
T2C_
?
深层学习と罢别苍蝉辞谤贵濒辞飞入门
tak9029
?
PRML_from5.1to5.3.1
禎晃 山崎
?
ゼロから作るDeepLearning 5章 輪読
KCS Keio Computer Society
?
A yet another brief introduction to neural networks
Yuta Kikuchi
?
深层学习(讲谈社)のまとめ(1章~2章)
okku apot
?
20150803.山口大学集中讲义
Hayaru SHOUNO
?
PRML 5.3-5.3.4 誤差逆伝播
KokiTakamiya
?
PRML Chapter 5 (5.0-5.4)
Shogo Nakamura
?
わかりやすいハ?ターン认识冲3章
weda654
?
厂骋顿による顿别别辫尝别补谤苍颈苍驳の学习
Masashi (Jangsa) Kawaguchi
?
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
?
Deep learning実装の基礎と実践
Seiya Tokui
?
20150310 第1回 ディープラーニング勉強会
哲朗 島田
?
Ad

More from KazuhiroSato8 (12)

PDF
Casual learning anomaly_detection_with_machine_learning_no1
KazuhiroSato8
?
PDF
Casual data analysis_with_python_vol2
KazuhiroSato8
?
PDF
Casual datascience vol5
KazuhiroSato8
?
PDF
Basic deep learning_framework
KazuhiroSato8
?
PDF
Casual learning machine_learning_with_excel_no1
KazuhiroSato8
?
PDF
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
KazuhiroSato8
?
PDF
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
KazuhiroSato8
?
PDF
Casual data analysis_with_python_vol1
KazuhiroSato8
?
PDF
Casual datascience vol4
KazuhiroSato8
?
PDF
Casual datascience vol3
KazuhiroSato8
?
PDF
Casual datascience vol2
KazuhiroSato8
?
PDF
Casual datascience vol1
KazuhiroSato8
?
Casual learning anomaly_detection_with_machine_learning_no1
KazuhiroSato8
?
Casual data analysis_with_python_vol2
KazuhiroSato8
?
Casual datascience vol5
KazuhiroSato8
?
Basic deep learning_framework
KazuhiroSato8
?
Casual learning machine_learning_with_excel_no1
KazuhiroSato8
?
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
KazuhiroSato8
?
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
KazuhiroSato8
?
Casual data analysis_with_python_vol1
KazuhiroSato8
?
Casual datascience vol4
KazuhiroSato8
?
Casual datascience vol3
KazuhiroSato8
?
Casual datascience vol2
KazuhiroSato8
?
Casual datascience vol1
KazuhiroSato8
?
Ad

Casual learning machine learning with_excel_no6