狠狠撸

狠狠撸Share a Scribd company logo
PRML 6.4.3-6.4.7
山岡大輝
目次
2/30
?次
2/30
? ガウス過程回帰をざっくり振り返る
? 超パラメータの学習
? 関連度自動決定
? ガウス過程識別モデル
? ラプラス近似
? ニューラルネットワークとの関連
ガウス過程回帰をざっくり振り返る
3/30
目標
訓練データ集合? = ? ?, ? ? ( ? ? = (?1, … , ? ?), ? ? = ?1, … , ? ? ) が与えられてい
る時に,新しい入力ベクトル ? ?+1 に対する目標変数 ? ?+1 を予測したい
つまり ? ? ?+1 ? ?, ? ?+1) が知りたい! ? ?+1 = (?1, … , ? ?, ? ?+1)
観測される目標変数に,ガウス分布に従うノイズが含まれていることを仮定
関数値
関数値が与えられた下での目標変数 ? の同時分布
等方的なガウス分布
関数値の同時分布はガウス過程の定義
Kは正定値行列
ガウス過程回帰をざっくり振り返る
4/30
? ? ?+1 ? ?, ? ?+1)を知るには? ? ?+1 ? ?+1) が必要
ガウス過程回帰をざっくり振り返る
5/30
目標
訓練データ集合? = ? ?, ? ? ( ? ? = (?1, … , ? ?), ? ? = ?1, … , ? ? ) が与えられてい
る時に,新しい入力ベクトル ? ?+1 に対する目標変数 ? ?+1 を予測したい
つまり ? ? ?+1 ? ?, ? ?+1) が知りたい! ? ?+1 = (?1, … , ? ?, ? ?+1)
2章の議論より
したがって
ガウス過程回帰における学習
6/30
訓練データとカーネルが与えられれば分布の形は一意に決まる
ガウス過程回帰で使うカーネル関数ってこんなやつ
つまり,ガウス過程回帰で学習するのは超パラメータ θ
ノイズはカーネルに含めることができる
どうやって超パラメータを学習しよう?
7/30
最尤推定で超パラメータ を決定する
を用いて,
第二種最尤推定(エビデンス近似)
パラメータ(ここでは関数)について周辺化した周辺尤度を最大化する超パラメー
タθを求める
エビデンス
超パラメータ最適化の諸々
8/30
求めた勾配を使って対数尤度最大化を行う
?ガウス過程ではSCG(Scaled Conjugate Gradient)法などが良く使われる
一般に対数尤度は非凸関数
?局所最適解に陥りやすい → 解決策の一つにMCMC
対数事後分布を最大化する方法もあり
?周辺化の近似が必要
ノイズが異分散モデルに従う場合,ノイズ自身が入力ベクトルに依存
?ノイズもガウス過程でモデル化する
関連度自動決定(Automatic Relevance Determination)
9/30
超パラメータを最尤推定で最適化することは,入力ベクトル間の相対的
な重要度をデータから決定すること(らしい)
これはARDを用いて理解することができる
関連度自動決定(ARD)
目的:予測に対する入力変数間の相対的な重要度を決定する
(重要度:予測に影響する度合い)
→ 予测分布に寄与しない入力成分を取り除ける
関連度自動決定(Automatic Relevance Determination)
10/30
ARDカーネル
パラメータη2がη1と比べて極端に小さい時,ガウス過程からサンプリングされた
関数の変動は入力?2の変動の影響を受けにくい
関連度自動決定
11/30
逆に,パラメータη?が推定できれば入力ベクトルの各成分の変動が関数の変動に
対して与える影響の度合いを推定できる!
ガウス過程回帰では一般的に以下のARDを組み込んだカーネルが使われる
η?は超パラメータθと同様に,第二種最尤推定の枠組みで推定できる
関連度自動決定
12/30
ガウス過程識別モデル
13/30
ガウス過程のモデルの予測値の範囲は実数値全体
予測値を非線形活性化関数で(0,1)の間に収めてやれば分類にも適用可能
2クラス分類
ベルヌーイ分布
ガウス過程からサンプル
ロジスティックシグモイド関数
ガウス過程識別モデル
14/30
クラス分類でも我々が知りたいのはやっぱり? ? ?+1 ? ?, ? ?+1)
2クラス分類では特に? ? ?+1 = 1 ? ?, ? ?+1)
訓練データのラベルが全て正しいならノイズ(誤差)項は不要
しかし,共分散行列の正定値性を保証するために加えておくと便利
半正定値
ガウス過程識別モデルの注意点
15/30
= ガウス分布じゃねえ
上の積分は解析的に無理 → 無理なら近似しちゃえば?
? サンプリングで近似
? シグモイド関数とガウス分布の畳み込み近似が使える
の訓練データ点の増加により漸近的にガウス分布に近づく
(中心極限定理)
ガウス分布による近似手法
16/30
? 変分推論(10章)
? EP法(10章)
? ラプラス近似(今からやる)
ラプラス近似
17/30
複雑な確率分布をガウス分布で近似するフレームワーク
上式を正規化すると,多変量ガウス分布で近似できる
精度行列Aが正定値行列であれば,上の確率分布を適切にガウス分布として定義
何がしたかったっけ
18/30
= ガウス分布じゃねえ
をガウス分布で近似したい
直接近似する前にちょっくら式変形
ラプラス近似しよう
19/30
上記を利用して
をガウス分布で近似してやればガウス分布の畳み込み積分
ラプラス近似をしよう
20/30
尤度事前分布
をラプラス近似する
データ点が互いに独立であると仮定
モードを求める
21/30
シグモイド関数は? ?の非線形関数なので,単純にイコールゼロとできない
→ 反復再重み付け最小二乗法(IRLS)で繰り返し計算を行いモードを求める
IRLSの更新式
ヘッセ行列は以下で与えられる
正定値行列
?正定値行列の和は正定値行列
したがって,事後分布の対数 は狭義凸関数
→ 単峰で大域的最適解を持つ
モードを求める
22/30
IRLSの更新式は以下
モード に収束するまで繰り返す
モードにおいて勾配はゼロになるため以下の式が成り立つ
モードを用いてヘッセ行列を評価する
よって,事後分布 のガウス分布による近似を得ることができる
23/30
以上より,下記の積分が評価できる
何がしたかったんだっけ②
24/30
= ガウス分布じゃねえ
もともとはこれが計算したかった
ガウス分布になった!
4章の議論から以下の近似を使って計算可能!!
超パラメータの決定
25/30
ガウス過程回帰の時と同様,学習とは超パラメータθを決定すること
第二種最尤推定
尤度関数を最大にするθを求める
ガウス過程回帰と違い,解析的に求められない
解析的に無理なら近似しちゃえよ → 再びラプラス近似へ
ラプラス近似
26/30
モデルエビデンスのラプラス近似
これを微分して最大になるθを求めたい
27/30
28/30
=
0
29/30
より
超パラメータの決定
30/30
が求まれば回帰問題同様,最適化アルゴリズムを用いてθを決定できる
ニューラルネットワークとの関連
31/30
2層ニューラルネットワークの隠れ層の数? → ∞ の極限でガウス過程と等価
入力 出力
入力に対する出力の分布を考える
ニューラルネットワークとの関連
32/30
より, ? → ∞ の極限で中心極限定理より
yの分布は に近づく
ここで と定義しなおせば
入力が多次元ベクトルであるとき出力は平均ゼロ,共分散
のガウス過程に従う

More Related Content

What's hot (20)

2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
sleepy_yoshi
?
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
?
笔搁惭尝轮読#7
笔搁惭尝轮読#7笔搁惭尝轮読#7
笔搁惭尝轮読#7
matsuolab
?
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
?
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
パターン认识と机械学习6章(カーネル法)
パターン认识と机械学习6章(カーネル法)パターン认识と机械学习6章(カーネル法)
パターン认识と机械学习6章(カーネル法)
Yukara Ikemiya
?
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
Akira Miyazawa
?
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似
KokiTakamiya
?
笔搁惭尝轮読#9
笔搁惭尝轮読#9笔搁惭尝轮読#9
笔搁惭尝轮読#9
matsuolab
?
笔搁惭尝轮読#10
笔搁惭尝轮読#10笔搁惭尝轮読#10
笔搁惭尝轮読#10
matsuolab
?
笔搁惭尝轮読#12
笔搁惭尝轮読#12笔搁惭尝轮読#12
笔搁惭尝轮読#12
matsuolab
?
阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁
Hiroshi Shimizu
?
20180118 一般化线形モテ?ル(驳濒尘)
20180118 一般化线形モテ?ル(驳濒尘)20180118 一般化线形モテ?ル(驳濒尘)
20180118 一般化线形モテ?ル(驳濒尘)
Masakazu Shinoda
?
负の二项分布について
负の二项分布について负の二项分布について
负の二项分布について
Hiroshi Shimizu
?
PRML 6.4-6.5
PRML 6.4-6.5PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
?
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
?
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Akihiro Nitta
?
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
sleepy_yoshi
?
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
?
笔搁惭尝轮読#7
笔搁惭尝轮読#7笔搁惭尝轮読#7
笔搁惭尝轮読#7
matsuolab
?
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
?
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
パターン认识と机械学习6章(カーネル法)
パターン认识と机械学习6章(カーネル法)パターン认识と机械学习6章(カーネル法)
パターン认识と机械学习6章(カーネル法)
Yukara Ikemiya
?
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似
KokiTakamiya
?
笔搁惭尝轮読#9
笔搁惭尝轮読#9笔搁惭尝轮読#9
笔搁惭尝轮読#9
matsuolab
?
笔搁惭尝轮読#10
笔搁惭尝轮読#10笔搁惭尝轮読#10
笔搁惭尝轮読#10
matsuolab
?
笔搁惭尝轮読#12
笔搁惭尝轮読#12笔搁惭尝轮読#12
笔搁惭尝轮読#12
matsuolab
?
阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁
Hiroshi Shimizu
?
20180118 一般化线形モテ?ル(驳濒尘)
20180118 一般化线形モテ?ル(驳濒尘)20180118 一般化线形モテ?ル(驳濒尘)
20180118 一般化线形モテ?ル(驳濒尘)
Masakazu Shinoda
?
负の二项分布について
负の二项分布について负の二项分布について
负の二项分布について
Hiroshi Shimizu
?
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Akihiro Nitta
?

Similar to PRML6.4 (9)

20150730 トヒ?本第4回 3.4節
20150730 トヒ?本第4回 3.4節20150730 トヒ?本第4回 3.4節
20150730 トヒ?本第4回 3.4節
MOTOGRILL
?
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティングPrml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
takutori
?
笔搁惭尝第3章冲3.3-3.4
笔搁惭尝第3章冲3.3-3.4笔搁惭尝第3章冲3.3-3.4
笔搁惭尝第3章冲3.3-3.4
Takashi Tamura
?
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
magoroku Yamamoto
?
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
?
金融时系列のための深层迟过程回帰モデル
金融时系列のための深层迟过程回帰モデル金融时系列のための深层迟过程回帰モデル
金融时系列のための深层迟过程回帰モデル
Kei Nakagawa
?
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
Zansa
?
Oracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslassoOracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslasso
Satoshi Kato
?
20150730 トヒ?本第4回 3.4節
20150730 トヒ?本第4回 3.4節20150730 トヒ?本第4回 3.4節
20150730 トヒ?本第4回 3.4節
MOTOGRILL
?
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティングPrml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
takutori
?
笔搁惭尝第3章冲3.3-3.4
笔搁惭尝第3章冲3.3-3.4笔搁惭尝第3章冲3.3-3.4
笔搁惭尝第3章冲3.3-3.4
Takashi Tamura
?
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
?
金融时系列のための深层迟过程回帰モデル
金融时系列のための深层迟过程回帰モデル金融时系列のための深层迟过程回帰モデル
金融时系列のための深层迟过程回帰モデル
Kei Nakagawa
?
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
Zansa
?
Oracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslassoOracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslasso
Satoshi Kato
?

More from hiroki yamaoka (14)

PRML1.5
PRML1.5PRML1.5
PRML1.5
hiroki yamaoka
?
PRML1.3
PRML1.3PRML1.3
PRML1.3
hiroki yamaoka
?
DQN
DQNDQN
DQN
hiroki yamaoka
?
PRML9.3
PRML9.3PRML9.3
PRML9.3
hiroki yamaoka
?
PRML4.3
PRML4.3PRML4.3
PRML4.3
hiroki yamaoka
?
PRML5.5
PRML5.5PRML5.5
PRML5.5
hiroki yamaoka
?
强化学习6章
强化学习6章强化学习6章
强化学习6章
hiroki yamaoka
?
强化学习5章
强化学习5章强化学习5章
强化学习5章
hiroki yamaoka
?
强化学习4章
强化学习4章强化学习4章
强化学习4章
hiroki yamaoka
?
强化学习3章
强化学习3章强化学习3章
强化学习3章
hiroki yamaoka
?
强化学习2章
强化学习2章强化学习2章
强化学习2章
hiroki yamaoka
?
强化学习1章
强化学习1章强化学习1章
强化学习1章
hiroki yamaoka
?
RL_chapter1_to_chapter4
RL_chapter1_to_chapter4RL_chapter1_to_chapter4
RL_chapter1_to_chapter4
hiroki yamaoka
?
PRML2.4 指数型分布族
PRML2.4 指数型分布族PRML2.4 指数型分布族
PRML2.4 指数型分布族
hiroki yamaoka
?

PRML6.4