狠狠撸

狠狠撸Share a Scribd company logo
PRML 9.3 EMアルゴリズム
山岡大輝
2
目次
前回の復習
9.3 EMアルゴリズムのもう一つの解釈(一般化)
9.3.1 混合ガウス分布再訪
9.3.2 K-meansとの関連
9.3.3 混合ベルヌーイ分布
9.3.4 ベイズ線形回帰に関するEMアルゴリズム
3
前回の復習
? 混合ガウス分布
? データ集合 ? =
?1
?
?
? ?
?
に対する尤度関数
? 対数尤度関数
logがexpに直接作用していない
4
前回の復習
? 対数尤度関数を最大にするパラメータをEMアルゴリズムで求める
1. 平均? ?,分散? ?,混合係数? ?を初期化,対数尤度の初期値を計算
2. 現在のパラメータ値で負担率を計算(更新)(Eステップ)
3. 負担率からパラメータ値を計算(更新)(Mステップ)
4. 更新したパラメータから対数尤度を計算,終了条件を満たしていれば終了
5
EMアルゴリズムのもう一つの解釈(一般化)
? EMアルゴリズムとは
潜在変数を含むモデルの学習を行う(最尤解を求める)ための最適化
アルゴリズム
? 具体的な目標:(対数)尤度関数? ? ?)の最大化
実際には完全データ集合{X,Z}は与えられない
? 代わりに事後分布? ? ?, ? ???
)を計算(Eステップ)して期待値をとる
*不完全データ集合の場合の最大化は困難(2ページ前)
完全データ対数尤度関数の最大化は簡単であると仮定する
6
EMアルゴリズムの解釈(一般化)
? 目標: (対数)尤度関数? ? ?)の最大化
? 条件付き期待値 の最大化
? Mステップで関数?を?について最大化
Σがlogの外
関数?の最大化は妥当? ? 9.4節で証明
7
一般的なEMアルゴリズム
1. パラメータ? ???を初期化
2. ? ? ?, ? ???
) (負担率)を計算(Eステップ)
3. パラメータ? ???
の更新
4. 更新したパラメータから対数尤度を計算,終了条件を満たしていれば終了
? 同時分布? ?, ? ?) は与えられている
8
混合ガウス分布への適用
潜在変数によるEMアルゴリズムの見方を混合ガウス分布に適用
? 完全データ尤度
? 完全データ対数尤度
9
混合ガウス分布への適用
? 完全データ対数尤度の期待値を計算
? 潜在変数? ?の事后分布(ベイズの定理より)
10
混合ガウス分布への適用
負担率
kに割り当てられる全てのデータ点について足し合わせ
?負担率の計算(Eステップ)
11
混合ガウス分布への適用
? 完全データ対数尤度の期待値
完全データ対数尤度の期待値を最大にするパラメータをMステップで計算
12
まとめ
1. パラメータ? ???, ? ???, ? ???を初期化
2. 負担率を計算(Eステップ)
3. パラメータ? ???
, ? ???
, ? ???
の更新
4. 更新したパラメータから対数尤度を計算,終了条件を満たしていれば終了
一般EMアルゴリズムの目標:完全データ対数尤度の最大化
13
K-meansとの関連
? K-means
二値変数???によるハード割り当て
? 混合ガウス分布
負担率γ(? ??)によるソフト割り当て
混合ガウス分布に関するEMアルゴリズムのある極限としてK-meansを導
出できる
14
K-meansとの関連
? 各ガウス要素の共分散行列が??(?は単位行列)で与えられる場合の混合ガウ
スモデルを考える
? 負担率(潜在変数の事後確率)を計算する
ε → ∞の極限で, γ(? ??)と???が一致する
15
K-meansとの関連
? ? ? ? ?
2
が最小になる?を??とおく( ? ? ?? = 1,すなわち? ?? = 1 )
ε → ∞の極限で, γ(? ??)と???が一致する
16
K-meansとの関連
? Mステップにおける? ?の更新式
? 完全データ対数尤度の期待値
17
K-meansとの関連
? 完全データ対数尤度の期待値
? K-meansにおける歪み尺度
完全データ対数尤度の期待値の最大化は歪み尺度の最小化と等価
18
混合ベルヌーイ分布
混合ベルヌーイ分布に対してEMアルゴリズムを適用した学習を考える
? D個の二値変数??は以下のベルヌーイ分布に従うと仮定
? 有限混合ベルヌーイ分布
? 対数尤度関数
19
EMアルゴリズムの導出
観測変数?に付随する潜在変数? = (?1, ?2, ? ? ?) ? を導入する
? 観測変数?の条件付き確率 ? 潜在変数の事前分布
? ?と?の同時分布(尤度関数)
20
EMアルゴリズムの導出
? データ集合? = {? ?},? = {? ?}に対する完全データ対数尤度関数
? データ集合? = {? ?},? = {? ?}に対する完全データ尤度関数
21
EMアルゴリズムの導出
? 完全データ対数尤度関数の期待値
? 負担率の計算(Eステップ)
22
EMアルゴリズムの導出
? 負担率の計算の続き
? 完全データ対数尤度の期待値
23
EMアルゴリズムの導出
? 完全データ対数尤度を最大にする各パラメータを求める(Mステップ)
? パラメータ? ?,? ?で微分して解を求める
24
? ?の直感的理解
例:手書き数字の分類に混合ベルヌーイ分布を利用
ピクセル数がDの手書き数字をD個の二値変数を要素に持つベクトルを
? = (?1, ?2, ? ? ?) ?
として与える
? 観測変数:?
? 潜在変数: ? = (?1, ?2, ? ? ?) ?
? 完全データ対数尤度の期待値が最大となるパラメータを求める
25
? ?の直感的理解
各画像の4らしさ
文字4において各ピクセルが黒くなる度合い
26
ベイズ線形回帰に関するEMアルゴリズム
目標:周辺尤度? ? ?, ?)のα,βに関する最大化にEMアルゴリズムを利用
パラメータ?は周辺化により消去されるため,潜在変数とみなす
? 完全データ対数尤度
尤度
?の事前分布
27
ベイズ線形回帰に関するEMアルゴリズム
? 完全データ対数尤度の(?の事後分布による)期待値の計算(Eステップ)
?の事後分布
? αとβに関して微分して0とおくとMステップの更新式を得る
(3章とは見た目は異なる解になるが結果は同じ)
28
ベイズ線形回帰に関するEMアルゴリズム
? αの導出
29
ベイズ線形回帰に関するEMアルゴリズム
? βの導出

More Related Content

What's hot (9)

PRML 6.4-6.5
PRML 6.4-6.5PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
?
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
?
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
Kohei Tomita
?
笔搁惭尝轮読#6
笔搁惭尝轮読#6笔搁惭尝轮読#6
笔搁惭尝轮読#6
matsuolab
?
ディープボルツマンマシン入门?后半?
ディープボルツマンマシン入门?后半?ディープボルツマンマシン入门?后半?
ディープボルツマンマシン入门?后半?
sakaizawa
?
Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1
florets1
?
笔搁惭尝轮読#13
笔搁惭尝轮読#13笔搁惭尝轮読#13
笔搁惭尝轮読#13
matsuolab
?
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
?
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
Kohei Tomita
?
笔搁惭尝轮読#6
笔搁惭尝轮読#6笔搁惭尝轮読#6
笔搁惭尝轮読#6
matsuolab
?
ディープボルツマンマシン入门?后半?
ディープボルツマンマシン入门?后半?ディープボルツマンマシン入门?后半?
ディープボルツマンマシン入门?后半?
sakaizawa
?
Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1
florets1
?
笔搁惭尝轮読#13
笔搁惭尝轮読#13笔搁惭尝轮読#13
笔搁惭尝轮読#13
matsuolab
?

More from hiroki yamaoka (14)

PRML1.5
PRML1.5PRML1.5
PRML1.5
hiroki yamaoka
?
PRML1.3
PRML1.3PRML1.3
PRML1.3
hiroki yamaoka
?
DQN
DQNDQN
DQN
hiroki yamaoka
?
PRML6.4
PRML6.4PRML6.4
PRML6.4
hiroki yamaoka
?
PRML4.3
PRML4.3PRML4.3
PRML4.3
hiroki yamaoka
?
PRML5.5
PRML5.5PRML5.5
PRML5.5
hiroki yamaoka
?
强化学习6章
强化学习6章强化学习6章
强化学习6章
hiroki yamaoka
?
强化学习5章
强化学习5章强化学习5章
强化学习5章
hiroki yamaoka
?
强化学习4章
强化学习4章强化学习4章
强化学习4章
hiroki yamaoka
?
强化学习3章
强化学习3章强化学习3章
强化学习3章
hiroki yamaoka
?
强化学习2章
强化学习2章强化学习2章
强化学习2章
hiroki yamaoka
?
强化学习1章
强化学习1章强化学习1章
强化学习1章
hiroki yamaoka
?
RL_chapter1_to_chapter4
RL_chapter1_to_chapter4RL_chapter1_to_chapter4
RL_chapter1_to_chapter4
hiroki yamaoka
?
PRML2.4 指数型分布族
PRML2.4 指数型分布族PRML2.4 指数型分布族
PRML2.4 指数型分布族
hiroki yamaoka
?

PRML9.3