狠狠撸
Submit Search
PRML6.4
Nov 1, 2020
Download as PPTX, PDF
0 likes
188 views
H
hiroki yamaoka
研究室の轮讲で使った资料です
Read less
Read more
1 of 32
Download now
Download to read offline
Recommended
笔搁惭尝第9章「混合モデルと贰惭」
笔搁惭尝第9章「混合モデルと贰惭」
Keisuke Sugawara
?
パターン認識と機械学習(PRML)の第9章「混合モデルとEM」について説明したスライドです。文字多め。 潜在変数を持つモデルの最適化を行うことができるEMアルゴリズムについて、最初は具体的でイメージしやすいk-meansクラスタリングから説明し、最後は数式を詳細に見ていきその意味を考察します 9.1 K-meansクラスタリング 9.2 混合ガウス分布 9.3 EMアルゴリズムのもう1つの解釈 9.4 一般のEMアルゴリズム
笔搁惭尝轮読#6
笔搁惭尝轮読#6
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
笔搁惭尝轮読#3
笔搁惭尝轮読#3
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
笔搁惭尝轮読#2
笔搁惭尝轮読#2
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
笔搁惭尝轮読#8
笔搁惭尝轮読#8
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
笔搁惭尝読み会第一章
笔搁惭尝読み会第一章
Takushi Miki
?
パターン认识と机械学习(笔搁惭尝)読み会第一章
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
Ohsawa Goodfellow
?
笔搁惭尝轮読#4
笔搁惭尝轮読#4
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
?
PRML勉強会2013冬 第7回 3章線形回帰モデルの3.2?3.4です
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
パターン認識と機械学習(PRML)の第6章「カーネル法」です 文字多め
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
sleepy_yoshi
?
PRML復々習レーン#2 2.3.6 - 2.3.7
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
?
2013-05-05 PRML復々習レーン#10 で発表
笔搁惭尝轮読#7
笔搁惭尝轮読#7
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
?
2013-06-23 PRM復々習レーン#11 7.1.5 計算論的学習理論 の発表資料
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
研究室で説明した「パターン认识と机械学习(下)」の第9章混合モデルと贰惭アルゴリズムについてです.
パターン认识と机械学习6章(カーネル法)
パターン认识と机械学习6章(カーネル法)
Yukara Ikemiya
?
人生ではじめて作ったスライド
PRML 第4章
PRML 第4章
Akira Miyazawa
?
パターン認識と機械学習 第4章 Pattern Recognition and Machine Learning Chapter 4
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似
KokiTakamiya
?
轮讲で作成した资料です
笔搁惭尝轮読#9
笔搁惭尝轮読#9
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
笔搁惭尝轮読#10
笔搁惭尝轮読#10
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
笔搁惭尝轮読#12
笔搁惭尝轮読#12
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁
Hiroshi Shimizu
?
HijiyamaR#3で発表しました。 階層ベイズを使った場合に,最尤法のAICと結果が大きく異なります。その問題についてどのように考えたらいいかについて発表しました。
20180118 一般化线形モテ?ル(驳濒尘)
20180118 一般化线形モテ?ル(驳濒尘)
Masakazu Shinoda
?
一般化线形モテ?ル(驳濒尘)
负の二项分布について
负の二项分布について
Hiroshi Shimizu
?
広島ベイズ塾で発表した,负の二项分布についての資料です。
PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
?
「パターン認識と機械学習(PRML)」読書会(第8回) (http://sites.google.com/site/ikomadokushokai/prml/prml08)発表資料
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
?
PRML 上 2.3.6 ~ 2.5.2 パターン認識と機械学習 細かく見たい人用で,パーっと見たい人には向いてないかと
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Akihiro Nitta
?
最新版のスライドは http://www.akihironitta.com/slides/ で公開しています。 The latest version of this slides is available at http://www.akihironitta.com/slides/.
Prml 10 1
Prml 10 1
正志 坪坂
?
20150730 トヒ?本第4回 3.4節
20150730 トヒ?本第4回 3.4節
MOTOGRILL
?
トピックモデルによる統計的潜在意味解析読書会 第4回 3.4節
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
takutori
?
笔搁惭尝第一章のガウス分布の最尤推定からベイズ曲线フィッティングまでを説明しています。ベイズ曲线フィッティングについては、実装しました。さらに、辞谤诲别谤を増やすこととサンプル数に着目した过学习の説明も行っています。
More Related Content
What's hot
(20)
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
?
PRML勉強会2013冬 第7回 3章線形回帰モデルの3.2?3.4です
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
パターン認識と機械学習(PRML)の第6章「カーネル法」です 文字多め
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
sleepy_yoshi
?
PRML復々習レーン#2 2.3.6 - 2.3.7
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
?
2013-05-05 PRML復々習レーン#10 で発表
笔搁惭尝轮読#7
笔搁惭尝轮読#7
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
?
2013-06-23 PRM復々習レーン#11 7.1.5 計算論的学習理論 の発表資料
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
研究室で説明した「パターン认识と机械学习(下)」の第9章混合モデルと贰惭アルゴリズムについてです.
パターン认识と机械学习6章(カーネル法)
パターン认识と机械学习6章(カーネル法)
Yukara Ikemiya
?
人生ではじめて作ったスライド
PRML 第4章
PRML 第4章
Akira Miyazawa
?
パターン認識と機械学習 第4章 Pattern Recognition and Machine Learning Chapter 4
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似
KokiTakamiya
?
轮讲で作成した资料です
笔搁惭尝轮読#9
笔搁惭尝轮読#9
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
笔搁惭尝轮読#10
笔搁惭尝轮読#10
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
笔搁惭尝轮読#12
笔搁惭尝轮読#12
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁
Hiroshi Shimizu
?
HijiyamaR#3で発表しました。 階層ベイズを使った場合に,最尤法のAICと結果が大きく異なります。その問題についてどのように考えたらいいかについて発表しました。
20180118 一般化线形モテ?ル(驳濒尘)
20180118 一般化线形モテ?ル(驳濒尘)
Masakazu Shinoda
?
一般化线形モテ?ル(驳濒尘)
负の二项分布について
负の二项分布について
Hiroshi Shimizu
?
広島ベイズ塾で発表した,负の二项分布についての資料です。
PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
?
「パターン認識と機械学習(PRML)」読書会(第8回) (http://sites.google.com/site/ikomadokushokai/prml/prml08)発表資料
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
?
PRML 上 2.3.6 ~ 2.5.2 パターン認識と機械学習 細かく見たい人用で,パーっと見たい人には向いてないかと
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Akihiro Nitta
?
最新版のスライドは http://www.akihironitta.com/slides/ で公開しています。 The latest version of this slides is available at http://www.akihironitta.com/slides/.
Prml 10 1
Prml 10 1
正志 坪坂
?
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
sleepy_yoshi
?
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
?
笔搁惭尝轮読#7
笔搁惭尝轮読#7
matsuolab
?
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
?
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
パターン认识と机械学习6章(カーネル法)
パターン认识と机械学习6章(カーネル法)
Yukara Ikemiya
?
PRML 第4章
PRML 第4章
Akira Miyazawa
?
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似
KokiTakamiya
?
笔搁惭尝轮読#9
笔搁惭尝轮読#9
matsuolab
?
笔搁惭尝轮読#10
笔搁惭尝轮読#10
matsuolab
?
笔搁惭尝轮読#12
笔搁惭尝轮読#12
matsuolab
?
阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁
Hiroshi Shimizu
?
20180118 一般化线形モテ?ル(驳濒尘)
20180118 一般化线形モテ?ル(驳濒尘)
Masakazu Shinoda
?
负の二项分布について
负の二项分布について
Hiroshi Shimizu
?
PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
?
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
?
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Akihiro Nitta
?
Prml 10 1
Prml 10 1
正志 坪坂
?
Similar to PRML6.4
(9)
20150730 トヒ?本第4回 3.4節
20150730 トヒ?本第4回 3.4節
MOTOGRILL
?
トピックモデルによる統計的潜在意味解析読書会 第4回 3.4節
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
takutori
?
笔搁惭尝第一章のガウス分布の最尤推定からベイズ曲线フィッティングまでを説明しています。ベイズ曲线フィッティングについては、実装しました。さらに、辞谤诲别谤を増やすこととサンプル数に着目した过学习の説明も行っています。
笔搁惭尝第3章冲3.3-3.4
笔搁惭尝第3章冲3.3-3.4
Takashi Tamura
?
笔搁惭尝3章の3.3~3.4节をまとめた资料です。
Deep learning入門
Deep learning入門
magoroku Yamamoto
?
deep learning,theano
130604 fpgax kibayos
130604 fpgax kibayos
Mikio Yoshida
?
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
?
PRML復々習レーン#9 6.3-6.3.1 はっぴょう
金融时系列のための深层迟过程回帰モデル
金融时系列のための深层迟过程回帰モデル
Kei Nakagawa
?
2019年厂颈驳贵颈苍研究会优秀赏论文赏受赏
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
Zansa
?
Zansa第12回勉強会の資料 「PRMLからヘ?イス?の世界へ」
Oracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslasso
Satoshi Kato
?
Lasso, R package, rigorous Lasso, Oracle property
20150730 トヒ?本第4回 3.4節
20150730 トヒ?本第4回 3.4節
MOTOGRILL
?
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
takutori
?
笔搁惭尝第3章冲3.3-3.4
笔搁惭尝第3章冲3.3-3.4
Takashi Tamura
?
Deep learning入門
Deep learning入門
magoroku Yamamoto
?
130604 fpgax kibayos
130604 fpgax kibayos
Mikio Yoshida
?
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
?
金融时系列のための深层迟过程回帰モデル
金融时系列のための深层迟过程回帰モデル
Kei Nakagawa
?
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
Zansa
?
Oracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslasso
Satoshi Kato
?
More from hiroki yamaoka
(14)
PRML1.5
PRML1.5
hiroki yamaoka
?
决定理论
PRML1.3
PRML1.3
hiroki yamaoka
?
研究室内の轮讲で使った资料です
DQN
DQN
hiroki yamaoka
?
研究室内の発表で使った资料です
PRML9.3
PRML9.3
hiroki yamaoka
?
研究室の轮讲で使った资料です
PRML4.3
PRML4.3
hiroki yamaoka
?
研究室の轮讲で使った资料です
PRML5.5
PRML5.5
hiroki yamaoka
?
研究室の轮讲で使った资料です
强化学习6章
强化学习6章
hiroki yamaoka
?
研究室内の発表资料です
强化学习5章
强化学习5章
hiroki yamaoka
?
研究室内の発表资料です
强化学习4章
强化学习4章
hiroki yamaoka
?
研究室内発表で使った资料です
强化学习3章
强化学习3章
hiroki yamaoka
?
研究室内発表で使った资料です
强化学习2章
强化学习2章
hiroki yamaoka
?
研究室内発表で使った资料です
强化学习1章
强化学习1章
hiroki yamaoka
?
研究室内発表で使った资料です
RL_chapter1_to_chapter4
RL_chapter1_to_chapter4
hiroki yamaoka
?
研究室内発表で使った资料です
PRML2.4 指数型分布族
PRML2.4 指数型分布族
hiroki yamaoka
?
研究室のゼミで発表した际の资料です.
PRML1.5
PRML1.5
hiroki yamaoka
?
PRML1.3
PRML1.3
hiroki yamaoka
?
DQN
DQN
hiroki yamaoka
?
PRML9.3
PRML9.3
hiroki yamaoka
?
PRML4.3
PRML4.3
hiroki yamaoka
?
PRML5.5
PRML5.5
hiroki yamaoka
?
强化学习6章
强化学习6章
hiroki yamaoka
?
强化学习5章
强化学习5章
hiroki yamaoka
?
强化学习4章
强化学习4章
hiroki yamaoka
?
强化学习3章
强化学习3章
hiroki yamaoka
?
强化学习2章
强化学习2章
hiroki yamaoka
?
强化学习1章
强化学习1章
hiroki yamaoka
?
RL_chapter1_to_chapter4
RL_chapter1_to_chapter4
hiroki yamaoka
?
PRML2.4 指数型分布族
PRML2.4 指数型分布族
hiroki yamaoka
?
PRML6.4
1.
PRML 6.4.3-6.4.7 山岡大輝
2.
目次 2/30 ?次 2/30 ? ガウス過程回帰をざっくり振り返る ? 超パラメータの学習 ?
関連度自動決定 ? ガウス過程識別モデル ? ラプラス近似 ? ニューラルネットワークとの関連
3.
ガウス過程回帰をざっくり振り返る 3/30 目標 訓練データ集合? = ?
?, ? ? ( ? ? = (?1, … , ? ?), ? ? = ?1, … , ? ? ) が与えられてい る時に,新しい入力ベクトル ? ?+1 に対する目標変数 ? ?+1 を予測したい つまり ? ? ?+1 ? ?, ? ?+1) が知りたい! ? ?+1 = (?1, … , ? ?, ? ?+1) 観測される目標変数に,ガウス分布に従うノイズが含まれていることを仮定 関数値 関数値が与えられた下での目標変数 ? の同時分布 等方的なガウス分布 関数値の同時分布はガウス過程の定義 Kは正定値行列
4.
ガウス過程回帰をざっくり振り返る 4/30 ? ? ?+1
? ?, ? ?+1)を知るには? ? ?+1 ? ?+1) が必要
5.
ガウス過程回帰をざっくり振り返る 5/30 目標 訓練データ集合? = ?
?, ? ? ( ? ? = (?1, … , ? ?), ? ? = ?1, … , ? ? ) が与えられてい る時に,新しい入力ベクトル ? ?+1 に対する目標変数 ? ?+1 を予測したい つまり ? ? ?+1 ? ?, ? ?+1) が知りたい! ? ?+1 = (?1, … , ? ?, ? ?+1) 2章の議論より したがって
6.
ガウス過程回帰における学習 6/30 訓練データとカーネルが与えられれば分布の形は一意に決まる ガウス過程回帰で使うカーネル関数ってこんなやつ つまり,ガウス過程回帰で学習するのは超パラメータ θ ノイズはカーネルに含めることができる
7.
どうやって超パラメータを学習しよう? 7/30 最尤推定で超パラメータ を決定する を用いて, 第二種最尤推定(エビデンス近似) パラメータ(ここでは関数)について周辺化した周辺尤度を最大化する超パラメー タθを求める エビデンス
8.
超パラメータ最適化の諸々 8/30 求めた勾配を使って対数尤度最大化を行う ?ガウス過程ではSCG(Scaled Conjugate Gradient)法などが良く使われる 一般に対数尤度は非凸関数 ?局所最適解に陥りやすい
→ 解決策の一つにMCMC 対数事後分布を最大化する方法もあり ?周辺化の近似が必要 ノイズが異分散モデルに従う場合,ノイズ自身が入力ベクトルに依存 ?ノイズもガウス過程でモデル化する
9.
関連度自動決定(Automatic Relevance Determination) 9/30 超パラメータを最尤推定で最適化することは,入力ベクトル間の相対的 な重要度をデータから決定すること(らしい) これはARDを用いて理解することができる 関連度自動決定(ARD) 目的:予測に対する入力変数間の相対的な重要度を決定する (重要度:予測に影響する度合い) →
予测分布に寄与しない入力成分を取り除ける
10.
関連度自動決定(Automatic Relevance Determination) 10/30 ARDカーネル パラメータη2がη1と比べて極端に小さい時,ガウス過程からサンプリングされた 関数の変動は入力?2の変動の影響を受けにくい
11.
関連度自動決定 11/30 逆に,パラメータη?が推定できれば入力ベクトルの各成分の変動が関数の変動に 対して与える影響の度合いを推定できる! ガウス過程回帰では一般的に以下のARDを組み込んだカーネルが使われる η?は超パラメータθと同様に,第二種最尤推定の枠組みで推定できる
12.
関連度自動決定 12/30
13.
ガウス過程識別モデル 13/30 ガウス過程のモデルの予測値の範囲は実数値全体 予測値を非線形活性化関数で(0,1)の間に収めてやれば分類にも適用可能 2クラス分類 ベルヌーイ分布 ガウス過程からサンプル ロジスティックシグモイド関数
14.
ガウス過程識別モデル 14/30 クラス分類でも我々が知りたいのはやっぱり? ? ?+1
? ?, ? ?+1) 2クラス分類では特に? ? ?+1 = 1 ? ?, ? ?+1) 訓練データのラベルが全て正しいならノイズ(誤差)項は不要 しかし,共分散行列の正定値性を保証するために加えておくと便利 半正定値
15.
ガウス過程識別モデルの注意点 15/30 = ガウス分布じゃねえ 上の積分は解析的に無理 →
無理なら近似しちゃえば? ? サンプリングで近似 ? シグモイド関数とガウス分布の畳み込み近似が使える の訓練データ点の増加により漸近的にガウス分布に近づく (中心極限定理)
16.
ガウス分布による近似手法 16/30 ? 変分推論(10章) ? EP法(10章) ?
ラプラス近似(今からやる)
17.
ラプラス近似 17/30 複雑な確率分布をガウス分布で近似するフレームワーク 上式を正規化すると,多変量ガウス分布で近似できる 精度行列Aが正定値行列であれば,上の確率分布を適切にガウス分布として定義
18.
何がしたかったっけ 18/30 = ガウス分布じゃねえ をガウス分布で近似したい 直接近似する前にちょっくら式変形
19.
ラプラス近似しよう 19/30 上記を利用して をガウス分布で近似してやればガウス分布の畳み込み積分
20.
ラプラス近似をしよう 20/30 尤度事前分布 をラプラス近似する データ点が互いに独立であると仮定
21.
モードを求める 21/30 シグモイド関数は? ?の非線形関数なので,単純にイコールゼロとできない → 反復再重み付け最小二乗法(IRLS)で繰り返し計算を行いモードを求める IRLSの更新式 ヘッセ行列は以下で与えられる 正定値行列 ?正定値行列の和は正定値行列 したがって,事後分布の対数
は狭義凸関数 → 単峰で大域的最適解を持つ
22.
モードを求める 22/30 IRLSの更新式は以下 モード に収束するまで繰り返す モードにおいて勾配はゼロになるため以下の式が成り立つ モードを用いてヘッセ行列を評価する よって,事後分布 のガウス分布による近似を得ることができる
23.
23/30 以上より,下記の積分が評価できる
24.
何がしたかったんだっけ② 24/30 = ガウス分布じゃねえ もともとはこれが計算したかった ガウス分布になった! 4章の議論から以下の近似を使って計算可能!!
25.
超パラメータの決定 25/30 ガウス過程回帰の時と同様,学習とは超パラメータθを決定すること 第二種最尤推定 尤度関数を最大にするθを求める ガウス過程回帰と違い,解析的に求められない 解析的に無理なら近似しちゃえよ → 再びラプラス近似へ
26.
ラプラス近似 26/30 モデルエビデンスのラプラス近似 これを微分して最大になるθを求めたい
27.
27/30
28.
28/30 = 0
29.
29/30 より
30.
超パラメータの決定 30/30 が求まれば回帰問題同様,最適化アルゴリズムを用いてθを決定できる
31.
ニューラルネットワークとの関連 31/30 2層ニューラルネットワークの隠れ層の数? → ∞
の極限でガウス過程と等価 入力 出力 入力に対する出力の分布を考える
32.
ニューラルネットワークとの関連 32/30 より, ? →
∞ の極限で中心極限定理より yの分布は に近づく ここで と定義しなおせば 入力が多次元ベクトルであるとき出力は平均ゼロ,共分散 のガウス過程に従う