狠狠撸
Submit Search
PRML9.3
Nov 1, 2020
Download as PPTX, PDF
0 likes
20 views
H
hiroki yamaoka
研究室の轮讲で使った资料です
Read less
Read more
1 of 29
Download now
Download to read offline
Recommended
prml_titech_9.0-9.2
prml_titech_9.0-9.2
Taikai Takeda
?
PRML 9.0-9.2 混合ガウス分布とEMアルゴリズムの資料
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじ
sleepy_yoshi
?
PRML復々習レーン#15 前回までのあらすじ
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
Wataru Kishimoto
?
PRML復々習レーン#14 ver.2
PRML復々習レーン#14 ver.2
Takuya Fukagai
?
台風で延期になった勉強会、担当箇所のスライド. 次回の勉強会用に少しだけ修正しました.
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
研究室で説明した「パターン认识と机械学习(下)」の第9章混合モデルと贰惭アルゴリズムについてです.
深层学习(讲谈社)のまとめ 第8章
深层学习(讲谈社)のまとめ 第8章
okku apot
?
自分用のまとめです。内容等には一切の責任を持ちません。 ブログ↓ http://want-to-be-rikei.blogspot.jp
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 ? 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 ? 4.5.2
Hiroyuki Kato
?
东京大学笔搁惭尝上巻轮読会第9回资料
Chapter 8 ボルツマンマシン - 深層学習本読み会
Chapter 8 ボルツマンマシン - 深層学習本読み会
Taikai Takeda
?
2015/8/5 深層学習本読み会 Chapter 8 ボルツマンマシン (http://ml-professional.connpass.com/event/17756/) の発表資料です
PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
?
「パターン認識と機械学習(PRML)」読書会(第8回) (http://sites.google.com/site/ikomadokushokai/prml/prml08)発表資料
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
?
PRML復々習レーン#7 前回までのあらすじ の資料
Prml 10 1
Prml 10 1
正志 坪坂
?
Prml14 5
Prml14 5
正志 坪坂
?
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
Kohei Tomita
?
PRML復々習レーン(2012/08/05)で発表させていただいたスライドです 3.5.2 エビデンス関数の最大化 3.5.3 有効パラメータ数 3.6 固定された基底関数の限界
笔搁惭尝轮読#6
笔搁惭尝轮読#6
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
ディープボルツマンマシン入门?后半?
ディープボルツマンマシン入门?后半?
sakaizawa
?
10月20日に行われた顿尝勉强会の资料です。
Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1
florets1
?
大阪笔搁惭尝読书会発表资料
笔搁惭尝轮読#13
笔搁惭尝轮読#13
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
PRML1.5
PRML1.5
hiroki yamaoka
?
决定理论
PRML1.3
PRML1.3
hiroki yamaoka
?
研究室内の轮讲で使った资料です
DQN
DQN
hiroki yamaoka
?
研究室内の発表で使った资料です
PRML6.4
PRML6.4
hiroki yamaoka
?
研究室の轮讲で使った资料です
PRML4.3
PRML4.3
hiroki yamaoka
?
研究室の轮讲で使った资料です
PRML5.5
PRML5.5
hiroki yamaoka
?
研究室の轮讲で使った资料です
强化学习6章
强化学习6章
hiroki yamaoka
?
研究室内の発表资料です
强化学习5章
强化学习5章
hiroki yamaoka
?
研究室内の発表资料です
强化学习4章
强化学习4章
hiroki yamaoka
?
研究室内発表で使った资料です
强化学习3章
强化学习3章
hiroki yamaoka
?
研究室内発表で使った资料です
强化学习2章
强化学习2章
hiroki yamaoka
?
研究室内発表で使った资料です
强化学习1章
强化学习1章
hiroki yamaoka
?
研究室内発表で使った资料です
RL_chapter1_to_chapter4
RL_chapter1_to_chapter4
hiroki yamaoka
?
研究室内発表で使った资料です
More Related Content
What's hot
(9)
PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
?
「パターン認識と機械学習(PRML)」読書会(第8回) (http://sites.google.com/site/ikomadokushokai/prml/prml08)発表資料
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
?
PRML復々習レーン#7 前回までのあらすじ の資料
Prml 10 1
Prml 10 1
正志 坪坂
?
Prml14 5
Prml14 5
正志 坪坂
?
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
Kohei Tomita
?
PRML復々習レーン(2012/08/05)で発表させていただいたスライドです 3.5.2 エビデンス関数の最大化 3.5.3 有効パラメータ数 3.6 固定された基底関数の限界
笔搁惭尝轮読#6
笔搁惭尝轮読#6
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
ディープボルツマンマシン入门?后半?
ディープボルツマンマシン入门?后半?
sakaizawa
?
10月20日に行われた顿尝勉强会の资料です。
Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1
florets1
?
大阪笔搁惭尝読书会発表资料
笔搁惭尝轮読#13
笔搁惭尝轮読#13
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
?
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
?
Prml 10 1
Prml 10 1
正志 坪坂
?
Prml14 5
Prml14 5
正志 坪坂
?
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
Kohei Tomita
?
笔搁惭尝轮読#6
笔搁惭尝轮読#6
matsuolab
?
ディープボルツマンマシン入门?后半?
ディープボルツマンマシン入门?后半?
sakaizawa
?
Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1
florets1
?
笔搁惭尝轮読#13
笔搁惭尝轮読#13
matsuolab
?
More from hiroki yamaoka
(14)
PRML1.5
PRML1.5
hiroki yamaoka
?
决定理论
PRML1.3
PRML1.3
hiroki yamaoka
?
研究室内の轮讲で使った资料です
DQN
DQN
hiroki yamaoka
?
研究室内の発表で使った资料です
PRML6.4
PRML6.4
hiroki yamaoka
?
研究室の轮讲で使った资料です
PRML4.3
PRML4.3
hiroki yamaoka
?
研究室の轮讲で使った资料です
PRML5.5
PRML5.5
hiroki yamaoka
?
研究室の轮讲で使った资料です
强化学习6章
强化学习6章
hiroki yamaoka
?
研究室内の発表资料です
强化学习5章
强化学习5章
hiroki yamaoka
?
研究室内の発表资料です
强化学习4章
强化学习4章
hiroki yamaoka
?
研究室内発表で使った资料です
强化学习3章
强化学习3章
hiroki yamaoka
?
研究室内発表で使った资料です
强化学习2章
强化学习2章
hiroki yamaoka
?
研究室内発表で使った资料です
强化学习1章
强化学习1章
hiroki yamaoka
?
研究室内発表で使った资料です
RL_chapter1_to_chapter4
RL_chapter1_to_chapter4
hiroki yamaoka
?
研究室内発表で使った资料です
PRML2.4 指数型分布族
PRML2.4 指数型分布族
hiroki yamaoka
?
研究室のゼミで発表した际の资料です.
PRML1.5
PRML1.5
hiroki yamaoka
?
PRML1.3
PRML1.3
hiroki yamaoka
?
DQN
DQN
hiroki yamaoka
?
PRML6.4
PRML6.4
hiroki yamaoka
?
PRML4.3
PRML4.3
hiroki yamaoka
?
PRML5.5
PRML5.5
hiroki yamaoka
?
强化学习6章
强化学习6章
hiroki yamaoka
?
强化学习5章
强化学习5章
hiroki yamaoka
?
强化学习4章
强化学习4章
hiroki yamaoka
?
强化学习3章
强化学习3章
hiroki yamaoka
?
强化学习2章
强化学习2章
hiroki yamaoka
?
强化学习1章
强化学习1章
hiroki yamaoka
?
RL_chapter1_to_chapter4
RL_chapter1_to_chapter4
hiroki yamaoka
?
PRML2.4 指数型分布族
PRML2.4 指数型分布族
hiroki yamaoka
?
PRML9.3
1.
PRML 9.3 EMアルゴリズム 山岡大輝
2.
2 目次 前回の復習 9.3 EMアルゴリズムのもう一つの解釈(一般化) 9.3.1 混合ガウス分布再訪 9.3.2
K-meansとの関連 9.3.3 混合ベルヌーイ分布 9.3.4 ベイズ線形回帰に関するEMアルゴリズム
3.
3 前回の復習 ? 混合ガウス分布 ? データ集合
? = ?1 ? ? ? ? ? に対する尤度関数 ? 対数尤度関数 logがexpに直接作用していない
4.
4 前回の復習 ? 対数尤度関数を最大にするパラメータをEMアルゴリズムで求める 1. 平均?
?,分散? ?,混合係数? ?を初期化,対数尤度の初期値を計算 2. 現在のパラメータ値で負担率を計算(更新)(Eステップ) 3. 負担率からパラメータ値を計算(更新)(Mステップ) 4. 更新したパラメータから対数尤度を計算,終了条件を満たしていれば終了
5.
5 EMアルゴリズムのもう一つの解釈(一般化) ? EMアルゴリズムとは 潜在変数を含むモデルの学習を行う(最尤解を求める)ための最適化 アルゴリズム ? 具体的な目標:(対数)尤度関数?
? ?)の最大化 実際には完全データ集合{X,Z}は与えられない ? 代わりに事後分布? ? ?, ? ??? )を計算(Eステップ)して期待値をとる *不完全データ集合の場合の最大化は困難(2ページ前) 完全データ対数尤度関数の最大化は簡単であると仮定する
6.
6 EMアルゴリズムの解釈(一般化) ? 目標: (対数)尤度関数?
? ?)の最大化 ? 条件付き期待値 の最大化 ? Mステップで関数?を?について最大化 Σがlogの外 関数?の最大化は妥当? ? 9.4節で証明
7.
7 一般的なEMアルゴリズム 1. パラメータ? ???を初期化 2.
? ? ?, ? ??? ) (負担率)を計算(Eステップ) 3. パラメータ? ??? の更新 4. 更新したパラメータから対数尤度を計算,終了条件を満たしていれば終了 ? 同時分布? ?, ? ?) は与えられている
8.
8 混合ガウス分布への適用 潜在変数によるEMアルゴリズムの見方を混合ガウス分布に適用 ? 完全データ尤度 ? 完全データ対数尤度
9.
9 混合ガウス分布への適用 ? 完全データ対数尤度の期待値を計算 ? 潜在変数?
?の事后分布(ベイズの定理より)
10.
10 混合ガウス分布への適用 負担率 kに割り当てられる全てのデータ点について足し合わせ ?負担率の計算(Eステップ)
11.
11 混合ガウス分布への適用 ? 完全データ対数尤度の期待値 完全データ対数尤度の期待値を最大にするパラメータをMステップで計算
12.
12 まとめ 1. パラメータ? ???,
? ???, ? ???を初期化 2. 負担率を計算(Eステップ) 3. パラメータ? ??? , ? ??? , ? ??? の更新 4. 更新したパラメータから対数尤度を計算,終了条件を満たしていれば終了 一般EMアルゴリズムの目標:完全データ対数尤度の最大化
13.
13 K-meansとの関連 ? K-means 二値変数???によるハード割り当て ? 混合ガウス分布 負担率γ(?
??)によるソフト割り当て 混合ガウス分布に関するEMアルゴリズムのある極限としてK-meansを導 出できる
14.
14 K-meansとの関連 ? 各ガウス要素の共分散行列が??(?は単位行列)で与えられる場合の混合ガウ スモデルを考える ? 負担率(潜在変数の事後確率)を計算する ε
→ ∞の極限で, γ(? ??)と???が一致する
15.
15 K-meansとの関連 ? ? ?
? ? 2 が最小になる?を??とおく( ? ? ?? = 1,すなわち? ?? = 1 ) ε → ∞の極限で, γ(? ??)と???が一致する
16.
16 K-meansとの関連 ? Mステップにおける? ?の更新式 ?
完全データ対数尤度の期待値
17.
17 K-meansとの関連 ? 完全データ対数尤度の期待値 ? K-meansにおける歪み尺度 完全データ対数尤度の期待値の最大化は歪み尺度の最小化と等価
18.
18 混合ベルヌーイ分布 混合ベルヌーイ分布に対してEMアルゴリズムを適用した学習を考える ? D個の二値変数??は以下のベルヌーイ分布に従うと仮定 ? 有限混合ベルヌーイ分布 ?
対数尤度関数
19.
19 EMアルゴリズムの導出 観測変数?に付随する潜在変数? = (?1,
?2, ? ? ?) ? を導入する ? 観測変数?の条件付き確率 ? 潜在変数の事前分布 ? ?と?の同時分布(尤度関数)
20.
20 EMアルゴリズムの導出 ? データ集合? =
{? ?},? = {? ?}に対する完全データ対数尤度関数 ? データ集合? = {? ?},? = {? ?}に対する完全データ尤度関数
21.
21 EMアルゴリズムの導出 ? 完全データ対数尤度関数の期待値 ? 負担率の計算(Eステップ)
22.
22 EMアルゴリズムの導出 ? 負担率の計算の続き ? 完全データ対数尤度の期待値
23.
23 EMアルゴリズムの導出 ? 完全データ対数尤度を最大にする各パラメータを求める(Mステップ) ? パラメータ?
?,? ?で微分して解を求める
24.
24 ? ?の直感的理解 例:手書き数字の分類に混合ベルヌーイ分布を利用 ピクセル数がDの手書き数字をD個の二値変数を要素に持つベクトルを ? =
(?1, ?2, ? ? ?) ? として与える ? 観測変数:? ? 潜在変数: ? = (?1, ?2, ? ? ?) ? ? 完全データ対数尤度の期待値が最大となるパラメータを求める
25.
25 ? ?の直感的理解 各画像の4らしさ 文字4において各ピクセルが黒くなる度合い
26.
26 ベイズ線形回帰に関するEMアルゴリズム 目標:周辺尤度? ? ?,
?)のα,βに関する最大化にEMアルゴリズムを利用 パラメータ?は周辺化により消去されるため,潜在変数とみなす ? 完全データ対数尤度 尤度 ?の事前分布
27.
27 ベイズ線形回帰に関するEMアルゴリズム ? 完全データ対数尤度の(?の事後分布による)期待値の計算(Eステップ) ?の事後分布 ? αとβに関して微分して0とおくとMステップの更新式を得る (3章とは見た目は異なる解になるが結果は同じ)
28.
28 ベイズ線形回帰に関するEMアルゴリズム ? αの導出
29.
29 ベイズ線形回帰に関するEMアルゴリズム ? βの導出