狠狠撸

狠狠撸Share a Scribd company logo
PRML輪読会 2017
第12章 連続潜在変数
東京?学?学院?学系研究科
技術経営戦略学専攻
松尾研究室
M1 ?村浩?郎
「第12章 連続潜在変数」の概要
? ?部または全部の潜在変数が連続である場合を考える
– 多くのデータ集合において,元々データが?っていた空間よりもはるかに低い次元の多
様体にデータ点がまとまっている
– 例:?書き数字
? 画像(縦px*横pxの次元)からなるデータの集合において変化するのは垂直?向,平?移動,回
転の3つの?由度しかない(実際にはもう少しいくつかの?由度の要素があるが)
? 8章からなる潜在変数のお話の最後
2
構成
12.1主成分分析
12.2 確率的主成分分析
12.3 カーネル主成分分析
12.4 ?線形潜在変数モデル
3
線形ガウスモデルを利?
?ガウス分布に拡張
12.1 主成分分析
? 主成分分析は,次元削減,?可逆データ圧縮,特徴抽出,データの可視化な
どに?いられる
– 主成分分析は以下のように定義できる(2つは等価)
1. 主部分空間(低次元の線形空間)の上への,データ点の直?射影
2. 射影のコスト関数(元々のデータ点と射影した点の間の2乗距離の平均値で定義され
る)の期待値を最?化するような線形空間
4
12.1.1 分散最?化による定式化
? 主成分分析は,次元削減,?可逆データ圧縮,特徴抽出,データの可視化な
どに?いられる
– 主成分分析は以下のように定義できる(2つは等価)
1. 主部分空間(低次元の線形空間)の上への,データ点の直?射影
2. 射影のコスト関数(元々のデータ点と射影した点の間の2乗距離の平均値で定義され
る)の期待値を最?化するような線形空間
5
2次元空間に存在していたデータを
1次元空間に直行射影する
12.1.1 分散最?化による定式化
6
? ? ?に射影することを考える(?$が知りたい)
– ?$を単位ベクトルとする(スカラーは無意味)
– 正射影ベクトルは
(? ?,? ?)
? ?
* ? ? **(? ?, ? ?)は内積
であるから,
? 平均:		? ?
?
?-
? 分散: ? ?
?
? ? ?	 **?は共分散?列
– ? ? = 1の制約のもとで分散 ? ?
?
? ? ?を
ラグランジュで最?化
– これを解くと,
? ?が?の固有ベクトル
– 分散は,固有値に対応
12.1.2 誤差最?化による定式化
? 主成分分析は,次元削減,?可逆データ圧縮,特徴抽出,データの可視化な
どに?いられる
– 主成分分析は以下のように定義できる(2つは等価)
1. 主部分空間(低次元の線形空間)の上への,データ点の直?射影
2. 射影のコスト関数(元々のデータ点と射影した点の間の2乗距離の平均値で定義され
る)の期待値を最?化するような線形空間
7
これらを最小化
12.1.2 誤差最?化による定式化
? D次元の基底ベクトル{??}からなる完全正規直?系を導?
? 正規直?ってなんだっけって?はこっそり以下をクリック(http://mathwords.net/seikityokkoukitei)
– 各データ点は,基底ベクトルの線形結合で表される
– 正規直?であるから, ? ?と	??の内積を取ると,?45 = ?4
7 ??
– M(<D)次元の空間で? ?を近似表現する.そしてその近似による誤差Jを最?化する
8
12.1.2 誤差最?化による定式化
? ラグランジュでJを最?化するz49と?;を求める
? i=1,2,,,,M, j=M+1,,,,D
– 以上の結果と(12.9)より,(12.10)に関して以下のように表される
– ? ?<から? ?への変位を表すベクトルは,主部分空間に直?する空間にあたる({??},
i=M+1, M+2,,,Dの空間であるから,i=1,2,,,Mで構成される主部分空間のベクトルと
は直?する)
– ? ? = 1の元でJを最?化(ラグランジュ)
– 歪みjに関して,固有値が?さいものをD-M個選んだものとなる
9
12.1.3 主成分分析の応?
? 圧縮
– (12.12)と(12.13)を(12.10)に代?して,
– 以上の近似式はデータ集合の圧縮を?している(D->M)
10
12.1.3 主成分分析の応?
? 正規化
– 主成分分析を?いることで,異なる変数を無相関化できる
*Lは対?要素?9を持つD*Dの対??列,Uは列ベクトルが??で与えられるD*Dの直??
列
– 以下の式で変換
– ??化,球状化などと呼ばれる
? データの可視化
11
白色化
12.1.4 ?次元データに対する主成分分析
? データ点が少ない場合, N < M(<-D)となってしまうと次元削減する意味が
ない
? 通常のアルゴリズムだと,?(?@
)の計算量がかかる
– Xをn番?の?が ?4 ? ?? 7で与えられるN*D次元の?列とすると,共分散?列は
? = ?E$ ?7 ?となり,対応する固有ベクトルは,
N*N?列の?E$ ?7 ?に対する固有?程式になっているので,計算量は?(?@)	
12
12.2 確率的主成分分析
? 確率的な潜在変数モデルの最尤解として表現
– 制限付きのガウス分布に従う
– ベイズ的な扱いができる(ex:EMアルゴリズム)
– ?成モデルとして利?できる
– 分類問題にも適?できる
? 潜在変数空間から観測データ空間への写像を考える
1. 潜在変数zの事前分布を明?的に導? ? ? = ?(?|?, ?)
2. 観測変数xについての条件付き分布 ? ?|? = ?(?? + ?, ? ? ?)からxをサンプリング(こ
の時ノイズを加える)
3. パラメタ?, ?, ?などを周辺確率の最尤推定で求める ? ? =	∫ ? ? ? ? ? ??
13
12.2.1 最尤法による主成分分析
? データ点の集合? = {?4}が与えられた時,対数尤度関数は,
– これをラグランジュで解いていく(基本的にはとても複雑)
? CがRには依存してない=>回転不変性
– 確率的主成分分析は,データの中の主要な相関関係を捉えつつ,?由度の数(独?なパ
ラメタの数)を?動で調整してくれる
14
12.2.2 EMアルゴリズムによる主成分分析
? 厳密な閉形式の形で最尤パラメタを得ることができるが,?次元空間におい
てはEMアルゴリズムを?いていくのが計算コストが?さく良い
? Eステップ
– 古いパラメタで期待値を計算
? Mステップ
– 統計量に関する最?化を?う
15
12.2.3 ベイズ的主成分分析
? 今までは主部分空間の次元Mを決めていた
– ベイズ的な扱いでMを定めることができるはず
– モデルをベイズ的な取り扱いで選択=>モデルのパラメタを周辺化することが難しい
– エビデンス近似に基づいた?法 =>関連度?動決定(AED: 7.2.2項)
1. Wの列ベクトルの精度パラメタ?9による事後分布を考える
2. ?9の値を周辺尤度関数の反復的な最?化により?出す
3. 結果的に疎な解が得られ,主部分空間で有効な次元は有限な?9の個数で決定する
16
12.2.3 ベイズ的主成分分析
? 通常の確率的主成分分析との?較.ベイズモデルが過剰な?由度を抑制して
いる
17
12.2.3 ベイズ的主成分分析
? ベイズ主成分分析に対するギブスサンプリング
– データ集合はD=4, 潜在変数空間はM=3で,データ集合は??向に?い分散を持ち,後
はノイズからなる確率的主成分分析モデルから?成されたもの
18
12.2.4 因?分析
? 因?分析は,確率的主成分分析と違って,共分散?列が対?ではあるが,等
?ではない共分散に基づく
– 観測変数の座標ごとに独?な分散を?列Ψ(変数ごとに独?なノイズの分散を表す独?
性)で表現し,変数間の共分散を?列Wの列ベクトルに取り込む
– 閉じた解にならないので,EMアルゴリズムを?いて反復的にとく
19
12.3 カーネル主成分分析
? カーネル置換を主成分分析に適?(kPCA)=>?線形への?般化
– 特徴空間におけるM*Mサンプル共分散?列は
固有値ベクトルの展開は
特徴量空間で明?的に計算することなる固有値問題を解く
– ベクトル??は? ?4 の線形結合で表される
これを?いて,固有ベクトルの?程式に戻して考えると,
20
12.3 カーネル主成分分析
? カーネル置換を主成分分析に適?(kPCA)=>?線形への?般化
– カーネル関数? ?4, ? = ? ?4
7 ? ? で表現
?列表?すると
両辺に現れるKは取り除いてよく,(12.76)を?いて点xの固有ベクトルiの上への射影は,
– 確かに,カーネル関数だけを通して表せている
21
12.4 ?線形潜在変数モデル
? 今までの話
– 連続潜在変数のモデルのうちて最も単純なモデルである線形ガウス分布に基づくモデル
に注?していて、実?的,解析が?較的容易,データへのフィッティングも簡単
? 本節の話
– ?線形もしくは?ガウス(またはその両?)にモデルを拡張する
– ?線形性と?ガウス性は互いに関係していて,それは?線形の変数変形を?うとガウス
分布から?般の確率密度関数が得られるからである
22
12.4.1 独?成分分析
? 潜在変数と観測変数の関係が線形で,潜在変数の分布が?ガウスであるモデ
ルを考える
? 独?成分分析(ICA)
– 潜在変数の分布が
に分解されていると考える(ex:未知?源分離)
– (12.36)で与えられる?列Cは回転させても不変
23
12.4.2 ??連想ニューラルネットワーク
? D個の?出?ユニット,M個の隠れユニットの多層パーセプトロン
– Auto encoder
– 隠れ層が?層ならPCAと同じこと
– 層が深くなると,2つの写像の適?と?ることができる。結果として?線形主成分分析
を?っている
24
12.4.3 ?線形多様体のモデル化
1. 区分線近似を?いた多様体の表現
– K-meansでクラスタリングしたのちにグループごとに主成分分析
2. 確率的主成分分析を混合 + EM
3. ベイズ的主成分分析 + 変分推論
4. 線形モデル ->?線形モデルに射影
– 主成分曲線,局?,超局?
5. 可視化
– 多次元尺度構成法
– ?計量多次元尺度構成法
6. ノンパラメトリックな次元削減と可視化
– 局所線形埋め込み(LLE)
– 等?特徴写像(isomap)
7. 潜在特性モデル
8. 密度ネットワーク
9. ?線形関数の制限 + 潜在変数の分布を適切に選択
25
参考?引?資料
? パターン認識と機械学習 下
– C.M. ビショップ (著), 元? 浩 (監訳), 栗? 多喜夫 (監訳), 樋? 知之 (監訳), 松本 裕
治 (監訳), 村? 昇 (監訳)
? 笔搁惭尝§12-连続潜在変数 (Keisuke OTAKI, 狠狠撸Share)
– /taki0313/prml12
? 具体例で学ぶ数学正規直交基底(定義、求め?、性質)
– http://mathwords.net/seikityokkoukitei
26
Ad

Recommended

笔搁惭尝轮読#10
笔搁惭尝轮読#10
matsuolab
?
笔搁惭尝轮読#4
笔搁惭尝轮読#4
matsuolab
?
笔搁惭尝轮読#5
笔搁惭尝轮読#5
matsuolab
?
笔搁惭尝轮読#7
笔搁惭尝轮読#7
matsuolab
?
笔搁惭尝轮読#6
笔搁惭尝轮読#6
matsuolab
?
笔搁惭尝轮読#11
笔搁惭尝轮読#11
matsuolab
?
笔搁惭尝轮読#3
笔搁惭尝轮読#3
matsuolab
?
笔搁惭尝轮読#2
笔搁惭尝轮読#2
matsuolab
?
笔搁惭尝轮読#13
笔搁惭尝轮読#13
matsuolab
?
変分推论法(変分ベイズ法)(笔搁惭尝第10章)
変分推论法(変分ベイズ法)(笔搁惭尝第10章)
Takao Yamanaka
?
笔搁惭尝轮読#9
笔搁惭尝轮読#9
matsuolab
?
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
?
笔搁惭尝轮読#8
笔搁惭尝轮読#8
matsuolab
?
笔搁惭尝轮読#1
笔搁惭尝轮読#1
matsuolab
?
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
?
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
takutori
?
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Seiichi Uchida
?
笔搁惭尝§12-连続潜在変数
笔搁惭尝§12-连続潜在変数
Keisuke OTAKI
?
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
Deep Learning JP
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
笔搁惭尝第9章「混合モデルと贰惭」
笔搁惭尝第9章「混合モデルと贰惭」
Keisuke Sugawara
?
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
グラフィカルモデル入门
グラフィカルモデル入门
Kawamoto_Kazuhiko
?
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
Deep Learning JP
?
PRML 1.6 情報理論
PRML 1.6 情報理論
sleepy_yoshi
?
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
Deep Learning JP
?
PRML2.1 2.2
PRML2.1 2.2
Takuto Kimura
?
骋础狈(と强化学习との関係)
骋础狈(と强化学习との関係)
Masahiro Suzuki
?
PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)
PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)
Akihiro Nitta
?

More Related Content

What's hot (20)

笔搁惭尝轮読#13
笔搁惭尝轮読#13
matsuolab
?
変分推论法(変分ベイズ法)(笔搁惭尝第10章)
変分推论法(変分ベイズ法)(笔搁惭尝第10章)
Takao Yamanaka
?
笔搁惭尝轮読#9
笔搁惭尝轮読#9
matsuolab
?
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
?
笔搁惭尝轮読#8
笔搁惭尝轮読#8
matsuolab
?
笔搁惭尝轮読#1
笔搁惭尝轮読#1
matsuolab
?
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
?
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
takutori
?
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Seiichi Uchida
?
笔搁惭尝§12-连続潜在変数
笔搁惭尝§12-连続潜在変数
Keisuke OTAKI
?
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
Deep Learning JP
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
笔搁惭尝第9章「混合モデルと贰惭」
笔搁惭尝第9章「混合モデルと贰惭」
Keisuke Sugawara
?
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
グラフィカルモデル入门
グラフィカルモデル入门
Kawamoto_Kazuhiko
?
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
Deep Learning JP
?
PRML 1.6 情報理論
PRML 1.6 情報理論
sleepy_yoshi
?
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
Deep Learning JP
?
PRML2.1 2.2
PRML2.1 2.2
Takuto Kimura
?
骋础狈(と强化学习との関係)
骋础狈(と强化学习との関係)
Masahiro Suzuki
?
笔搁惭尝轮読#13
笔搁惭尝轮読#13
matsuolab
?
変分推论法(変分ベイズ法)(笔搁惭尝第10章)
変分推论法(変分ベイズ法)(笔搁惭尝第10章)
Takao Yamanaka
?
笔搁惭尝轮読#9
笔搁惭尝轮読#9
matsuolab
?
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
?
笔搁惭尝轮読#8
笔搁惭尝轮読#8
matsuolab
?
笔搁惭尝轮読#1
笔搁惭尝轮読#1
matsuolab
?
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
?
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
takutori
?
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Seiichi Uchida
?
笔搁惭尝§12-连続潜在変数
笔搁惭尝§12-连続潜在変数
Keisuke OTAKI
?
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
Deep Learning JP
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
笔搁惭尝第9章「混合モデルと贰惭」
笔搁惭尝第9章「混合モデルと贰惭」
Keisuke Sugawara
?
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
グラフィカルモデル入门
グラフィカルモデル入门
Kawamoto_Kazuhiko
?
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
Deep Learning JP
?
PRML 1.6 情報理論
PRML 1.6 情報理論
sleepy_yoshi
?
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
Deep Learning JP
?
骋础狈(と强化学习との関係)
骋础狈(と强化学习との関係)
Masahiro Suzuki
?

Similar to 笔搁惭尝轮読#12 (20)

PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)
PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)
Akihiro Nitta
?
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
?
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Wataru Kishimoto
?
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データ
emonosuke
?
Oshasta em
Oshasta em
Naotaka Yamada
?
笔搁惭尝読み会第一章
笔搁惭尝読み会第一章
Takushi Miki
?
PRML セミナー
PRML セミナー
sakaguchi050403
?
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
ssuserf4860b
?
Introduction to statistics
Introduction to statistics
Kohta Ishikawa
?
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
Issei Kurahashi
?
笔搁惭尝第3章冲3.3-3.4
笔搁惭尝第3章冲3.3-3.4
Takashi Tamura
?
频度论とベイズ论と误差最小化について
频度论とベイズ论と误差最小化について
Shohei Miyashita
?
第8章 カ?ウス過程回帰による異常検知
第8章 カ?ウス過程回帰による異常検知
Chika Inoshita
?
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
Zansa
?
PRML chap.10 latter half
PRML chap.10 latter half
Narihira Takuya
?
わかりやすいパターン認識 4章
わかりやすいパターン認識 4章
Motokawa Tetsuya
?
PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)
PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)
Akihiro Nitta
?
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
?
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Wataru Kishimoto
?
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データ
emonosuke
?
笔搁惭尝読み会第一章
笔搁惭尝読み会第一章
Takushi Miki
?
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
ssuserf4860b
?
Introduction to statistics
Introduction to statistics
Kohta Ishikawa
?
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
Issei Kurahashi
?
笔搁惭尝第3章冲3.3-3.4
笔搁惭尝第3章冲3.3-3.4
Takashi Tamura
?
频度论とベイズ论と误差最小化について
频度论とベイズ论と误差最小化について
Shohei Miyashita
?
第8章 カ?ウス過程回帰による異常検知
第8章 カ?ウス過程回帰による異常検知
Chika Inoshita
?
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
【Zansa】第12回勉強会 -PRMLからヘ?イス?の世界へ
Zansa
?
わかりやすいパターン認識 4章
わかりやすいパターン認識 4章
Motokawa Tetsuya
?
Ad

笔搁惭尝轮読#12