狠狠撸
Submit Search
「続?わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
Sep 30, 2015
5 likes
5,301 views
aich_08_
2015.09.29 「続?わかりやすパターン認識」読書会 #13 の 発表資料。
Read less
Read more
1 of 35
Download now
Downloaded 25 times
Recommended
3分でわかる多项分布とディリクレ分布
3分でわかる多项分布とディリクレ分布
Junya Saito
?
多項分布とディリクレ分布の簡単な解説です。 正規分布とかはわかっている人向けです。 LDAの勉強などで使えるかも?
最适化超入门
最适化超入门
Takami Sato
?
TokyoWebMining #40のトーク3の資料です
ノンパラベイズ入门の入门
ノンパラベイズ入门の入门
Shuyo Nakatani
?
機械学習×プログラミング勉強会 vol.2 での発表資料です。 ベイズの何が嬉しいか、ノンパラベイズの何が嬉しいかを数式を使わず語ります。
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
第4回 統計?機械学習若手シンポジウム(11/15)発表資料
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
?
最尤推定やベイズ推定の基本がようやく理解できたため,かみ砕いて説明したプレゼンを作りました.
変分推论法(変分ベイズ法)(笔搁惭尝第10章)
変分推论法(変分ベイズ法)(笔搁惭尝第10章)
Takao Yamanaka
?
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
Classi.corp
?
尘肠尘肠を笔测迟丑辞苍で行うためのパッケージ比较についての话
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
Toru Imai
?
第33回R勉強会@東京 MICとHSICの性能比較です
搁で颈蝉辞尘补辫(多様体学习のはなし)
搁で颈蝉辞尘补辫(多様体学习のはなし)
Kohta Ishikawa
?
クラシックな机械学习入门:付録:よく使う线形代数の公式
クラシックな机械学习入门:付録:よく使う线形代数の公式
Hiroshi Nakagawa
?
机械学习でよく使う线形代数の公式です。行列や濒辞驳行列式の微分、逆行列の微分、2次形式の迟谤补肠别での记述、ブロック行列の逆行列などの公式が书かれています。
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
?
変分ベイズ法の説明。 最尤法との対比で説明した。また、EMアルゴリズムとの対応も述べられている。 職場の勉強会での資料です。
笔搁惭尝轮読#1
笔搁惭尝轮読#1
matsuolab
?
东京大学松尾研究室における笔搁惭尝の轮読资料です。
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
ゼミで発表した资料です。间违っていたら罢飞颈迟迟别谤に连络ください。蔼辞迟迟补尘尘冲190
强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
第25回ステアラボ人工知能セミナー https://stair.connpass.com/event/143745/
星野「调査観察データの统计科学」第3章
星野「调査観察データの统计科学」第3章
Shuyo Nakatani
?
星野「調査観察データの統計科学」の読書スライドです。 社内勉強会で使った資料がベースです。 第3章の傾向スコアを紹介しています。
负の二项分布について
负の二项分布について
Hiroshi Shimizu
?
広島ベイズ塾で発表した,负の二项分布についての資料です。
セミハ?ラメトリック推论の基础
セミハ?ラメトリック推论の基础
Daisuke Yoneoka
?
勉强会用资料
パターン认识と机械学习入门
パターン认识と机械学习入门
Momoko Hayamizu
?
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
?
第9回全日本コンピュータビジョン勉強会「ICCV2021論文読み会」の発表資料です https://kantocv.connpass.com/event/228283/ ICCV'21 Best PaperであるSwin Transformerを完全に理解するためにふんだんに余談を盛り込んだ資料となります
Chapter2.3.6
Chapter2.3.6
Takuya Minagawa
?
ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介
Naoki Hayashi
?
ベイズ統計学の基礎概念からW理論まで概論的に紹介するスライドです.数理?計算科学チュートリアル実践のチュートリアル資料です.引用しているipynbは * http://nhayashi.main.jp/codes/BayesStatAbstIntro.zip * https://github.com/chijan-nh/BayesStatAbstIntro を参照ください. 以下,エラッタ. * 52 of 80:KL(q||p)≠KL(q||p)ではなくKL(q||p)≠KL(p||q). * 67 of 80:2ν=E[V_n]ではなくE[V_n] → 2ν (n→∞). * 70 of 80:AICの第2項は d/2n ではなく d/n. * 76 of 80:βH(w)ではなくβ log P(X^n|w) + log φ(w). - レプリカ交換MCと異なり、逆温度を尤度にのみ乗することはWBIC導出では本質的な仮定となる.
笔搁惭尝轮読#2
笔搁惭尝轮読#2
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
自动微分変分ベイズ法の绍介
自动微分変分ベイズ法の绍介
Taku Yoshioka
?
尼崎笔测迟丑辞苍の会#3での発表资料です。
15分て?わかる(范囲の)ヘ?イス?统计学
15分て?わかる(范囲の)ヘ?イス?统计学
Ken'ichi Matsui
?
016/01/31(日) 第十回 数学カフェ 「数学史」発表資料 誤って削除してしまいましたので再アップロードします。日本語のpdfがアップロードできないので、pptファイル仮アップロードします。 訂正情報: p14 分母の p(B_1|A_1)の説明 誤:病気でない人が陽性になる確率 正:病気である人が陽性になる確率
阶层ディリクレ过程事前分布モデルによる画像领域分割
阶层ディリクレ过程事前分布モデルによる画像领域分割
tn1031
?
画像领域分割问题を教师なし学习として解きます。画像を确率的にモデリングします。事前分布として阶层ディリクレ过程を导入しています。
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
takaya imai
?
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
?
第23回情報論的学習理論と機械学習研究会 (IBISML)
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
hnisiji
?
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
hirokazutanaka
?
特徴量選択とデータマイニング 低次元の場合:アヤメデータセット 高次元の場合:主成分分析による特徴抽出 教師あり学習と教師なし学習 学習のパラダイムとその代表例 k-平均クラスタリング 階層的クラスタリングとデンドログラム 混合モデルとEMアルゴリズム 講師: 東京都市大学 田中宏和 講義ビデオ: https://www.youtube.com/playlist?list=PLXAfiwJfs0jGOvZnwUdAykZvSdRFd7K2p
More Related Content
What's hot
(20)
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
Toru Imai
?
第33回R勉強会@東京 MICとHSICの性能比較です
搁で颈蝉辞尘补辫(多様体学习のはなし)
搁で颈蝉辞尘补辫(多様体学习のはなし)
Kohta Ishikawa
?
クラシックな机械学习入门:付録:よく使う线形代数の公式
クラシックな机械学习入门:付録:よく使う线形代数の公式
Hiroshi Nakagawa
?
机械学习でよく使う线形代数の公式です。行列や濒辞驳行列式の微分、逆行列の微分、2次形式の迟谤补肠别での记述、ブロック行列の逆行列などの公式が书かれています。
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
?
変分ベイズ法の説明。 最尤法との対比で説明した。また、EMアルゴリズムとの対応も述べられている。 職場の勉強会での資料です。
笔搁惭尝轮読#1
笔搁惭尝轮読#1
matsuolab
?
东京大学松尾研究室における笔搁惭尝の轮読资料です。
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
ゼミで発表した资料です。间违っていたら罢飞颈迟迟别谤に连络ください。蔼辞迟迟补尘尘冲190
强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
第25回ステアラボ人工知能セミナー https://stair.connpass.com/event/143745/
星野「调査観察データの统计科学」第3章
星野「调査観察データの统计科学」第3章
Shuyo Nakatani
?
星野「調査観察データの統計科学」の読書スライドです。 社内勉強会で使った資料がベースです。 第3章の傾向スコアを紹介しています。
负の二项分布について
负の二项分布について
Hiroshi Shimizu
?
広島ベイズ塾で発表した,负の二项分布についての資料です。
セミハ?ラメトリック推论の基础
セミハ?ラメトリック推论の基础
Daisuke Yoneoka
?
勉强会用资料
パターン认识と机械学习入门
パターン认识と机械学习入门
Momoko Hayamizu
?
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
?
第9回全日本コンピュータビジョン勉強会「ICCV2021論文読み会」の発表資料です https://kantocv.connpass.com/event/228283/ ICCV'21 Best PaperであるSwin Transformerを完全に理解するためにふんだんに余談を盛り込んだ資料となります
Chapter2.3.6
Chapter2.3.6
Takuya Minagawa
?
ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介
Naoki Hayashi
?
ベイズ統計学の基礎概念からW理論まで概論的に紹介するスライドです.数理?計算科学チュートリアル実践のチュートリアル資料です.引用しているipynbは * http://nhayashi.main.jp/codes/BayesStatAbstIntro.zip * https://github.com/chijan-nh/BayesStatAbstIntro を参照ください. 以下,エラッタ. * 52 of 80:KL(q||p)≠KL(q||p)ではなくKL(q||p)≠KL(p||q). * 67 of 80:2ν=E[V_n]ではなくE[V_n] → 2ν (n→∞). * 70 of 80:AICの第2項は d/2n ではなく d/n. * 76 of 80:βH(w)ではなくβ log P(X^n|w) + log φ(w). - レプリカ交換MCと異なり、逆温度を尤度にのみ乗することはWBIC導出では本質的な仮定となる.
笔搁惭尝轮読#2
笔搁惭尝轮読#2
matsuolab
?
东京大学松尾研究室における笔搁惭尝轮読资料です。
自动微分変分ベイズ法の绍介
自动微分変分ベイズ法の绍介
Taku Yoshioka
?
尼崎笔测迟丑辞苍の会#3での発表资料です。
15分て?わかる(范囲の)ヘ?イス?统计学
15分て?わかる(范囲の)ヘ?イス?统计学
Ken'ichi Matsui
?
016/01/31(日) 第十回 数学カフェ 「数学史」発表資料 誤って削除してしまいましたので再アップロードします。日本語のpdfがアップロードできないので、pptファイル仮アップロードします。 訂正情報: p14 分母の p(B_1|A_1)の説明 誤:病気でない人が陽性になる確率 正:病気である人が陽性になる確率
阶层ディリクレ过程事前分布モデルによる画像领域分割
阶层ディリクレ过程事前分布モデルによる画像领域分割
tn1031
?
画像领域分割问题を教师なし学习として解きます。画像を确率的にモデリングします。事前分布として阶层ディリクレ过程を导入しています。
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
takaya imai
?
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
?
第23回情報論的学習理論と機械学習研究会 (IBISML)
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
Toru Imai
?
搁で颈蝉辞尘补辫(多様体学习のはなし)
搁で颈蝉辞尘补辫(多様体学习のはなし)
Kohta Ishikawa
?
クラシックな机械学习入门:付録:よく使う线形代数の公式
クラシックな机械学习入门:付録:よく使う线形代数の公式
Hiroshi Nakagawa
?
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
?
笔搁惭尝轮読#1
笔搁惭尝轮読#1
matsuolab
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
星野「调査観察データの统计科学」第3章
星野「调査観察データの统计科学」第3章
Shuyo Nakatani
?
负の二项分布について
负の二项分布について
Hiroshi Shimizu
?
セミハ?ラメトリック推论の基础
セミハ?ラメトリック推论の基础
Daisuke Yoneoka
?
パターン认识と机械学习入门
パターン认识と机械学习入门
Momoko Hayamizu
?
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
?
Chapter2.3.6
Chapter2.3.6
Takuya Minagawa
?
ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介
Naoki Hayashi
?
笔搁惭尝轮読#2
笔搁惭尝轮読#2
matsuolab
?
自动微分変分ベイズ法の绍介
自动微分変分ベイズ法の绍介
Taku Yoshioka
?
15分て?わかる(范囲の)ヘ?イス?统计学
15分て?わかる(范囲の)ヘ?イス?统计学
Ken'ichi Matsui
?
阶层ディリクレ过程事前分布モデルによる画像领域分割
阶层ディリクレ过程事前分布モデルによる画像领域分割
tn1031
?
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
takaya imai
?
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
?
Similar to 「続?わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
(16)
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
hnisiji
?
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
hirokazutanaka
?
特徴量選択とデータマイニング 低次元の場合:アヤメデータセット 高次元の場合:主成分分析による特徴抽出 教師あり学習と教師なし学習 学習のパラダイムとその代表例 k-平均クラスタリング 階層的クラスタリングとデンドログラム 混合モデルとEMアルゴリズム 講師: 東京都市大学 田中宏和 講義ビデオ: https://www.youtube.com/playlist?list=PLXAfiwJfs0jGOvZnwUdAykZvSdRFd7K2p
6 Info Theory
6 Info Theory
melvincabatuan
?
わかりやすいハ?ターン认识6章.辫辫迟虫
わかりやすいハ?ターン认识6章.辫辫迟虫
KOKIFUJIWARA2
?
わかりやすいパターン認識 6章1節から3節までの内容です
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
パターン認識と機械学習(PRML)の第6章「カーネル法」です 文字多め
PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
?
「パターン認識と機械学習(PRML)」読書会(第8回) (http://sites.google.com/site/ikomadokushokai/prml/prml08)発表資料
论文绍介&补尘辫;実験
论文绍介&补尘辫;実験
SHINGO MORISHITA
?
論文タイトル:k-means:Arevisit, Neurocomputing, 291, (2018) 195–206 ?実験 論文で提案されているアルゴリズムを自分の作成した正規分布データで実装。
尘补丑辞耻迟イン?アクション9章
尘补丑辞耻迟イン?アクション9章
Satosi Sakai
?
尘补丑辞耻迟轮讲会の资料
Large Scale Incremental Learning
Large Scale Incremental Learning
cvpaper. challenge
?
cvpaper.challenge のCVPR2019 網羅的サーベイ報告会における論文紹介の発表資料です。
Matrix capsules with em routing
Matrix capsules with em routing
Kazuki Fujikawa
?
Deep Learning Seminar 2018/04/20 の発表資料です。 http://deeplearning.jp/seminar/
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
. .
?
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足
ke beck
?
话し残した最小角回帰のところと、まとめです
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
?
12/09/25 w8prml 学習会 パターン認識と機械学習 上 1.3節~1.6節 申し訳ありませんが、字の大きさが変になって改行がおかしかったり、式に画像データを使ってる部分がぼやけ気味だったりします。 (9/25)いくつか再び訂正をしましたので再アップします。主な修正箇所は (P28)効用関数最小化→最大化 (P51) log(24)/log(3)=log(8)=3 → log(24)/log(3)=2.892789.... (P57) 右下枠内のエントロピー低?高が逆だったのを訂正。 ???以上となります。
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
?
AI2018 8 ニューラルネットワークの基础
AI2018 8 ニューラルネットワークの基础
Hirotaka Hachiya
?
ニューラルネットワークの基础
Quantum Support Vector Machine
Quantum Support Vector Machine
Yuma Nakamura
?
こちらでの発表資料です https://quantum-tokyo.connpass.com/event/188682/ ?量子機械学習アルゴリズムの中から、「量子サポートベクターマシン(量子SVM)」をQiskitでの実装例とともに学びます。 ?IBM Qで量子機械学習が実装された論文のうち量子SVMに関する内容を、古典SVMの概要から量子SVMのコード紹介まで説明していきます。
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
hnisiji
?
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
hirokazutanaka
?
6 Info Theory
6 Info Theory
melvincabatuan
?
わかりやすいハ?ターン认识6章.辫辫迟虫
わかりやすいハ?ターン认识6章.辫辫迟虫
KOKIFUJIWARA2
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
?
论文绍介&补尘辫;実験
论文绍介&补尘辫;実験
SHINGO MORISHITA
?
尘补丑辞耻迟イン?アクション9章
尘补丑辞耻迟イン?アクション9章
Satosi Sakai
?
Large Scale Incremental Learning
Large Scale Incremental Learning
cvpaper. challenge
?
Matrix capsules with em routing
Matrix capsules with em routing
Kazuki Fujikawa
?
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
. .
?
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足
ke beck
?
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
?
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
?
AI2018 8 ニューラルネットワークの基础
AI2018 8 ニューラルネットワークの基础
Hirotaka Hachiya
?
Quantum Support Vector Machine
Quantum Support Vector Machine
Yuma Nakamura
?
「続?わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
1.
続?わかりやすい パターン認識 第12章ディリクレ過程混合モデルによるクラスタリング 12.1 ディリクレ過程混合モデルとその学習法
2.
自己紹介 ? Twitter :
@aich_08_ ? 所属組織 : 匿名知的集団ホクソエム(ピンク担当) ? 職種 : コンサル ? 趣味 : トレーニング,登山 ? 全然痩せない????orz 2 ラテアートではなく, ただのカプチーノだよ。
3.
これまでのおはなし ? 第11章では、分割の確率モデルの具体例として, ホップの壺モデルと中華料理店過程(Chinese restaurant process
: CRP)を取り上げた. ? この2モデルの分割ルールは, ディリクレ分布を無限次元に拡張することで導出できることを確認した. ? 第12章では,クラスタ数が未知の場合のクラスタリング方法として, ディリクレ過程混合モデルによるクラスタリングを紹介する. ? ディリクレ過程混合モデルでは,クラスタ数 ? はディリクレ過程により決定される. 3
4.
これまでのおはなし(つづき) 表記のおさらい(p. 214) パターン集合 :
? = {?1, … , ? ?} パターン集合 ? に対応するクラスタ集合 : ? = {?1, … , ? ?} 各クラスタに対するパラメータ : ? = {?1, … , ? ?} 4
5.
ディリクレ過程混合モデルによる生成モデル ? ディリクレ過程混合モデルによる生成モデルは以下のように 記される.ここで,? は集中度パラメータ,
?0(?)は基底分布を表す. 5
6.
CRPに基づくディリクレ過程混合モデル ? 中華料理店過程(Chinese Restaurant
Process : CRP)によるディリクレ過程 混合モデルの生成プロセスは以下のように記される. ? ここで、CPR(?)は集中度パラメータ ? のCPRを、 ?は?0 ? ハイパーパラ メーを表す. 6
7.
生成モデルに対する学習 ? いま、生成モデルからある観測パターン ?
が得られたとする. ? 以下に示される事後分布を最大化することにより,クラスタ ? およびパラ メータ ? を決定する. ■ 所属クラスタとパラメータを決定する場合 7
8.
生成モデルに対する学習(つづき) ■ 所属クラスタのみを決定する場合 → ?
= {?1, … , ? ?} の可能なすべての組合せを評価するのは,その組合せ が膨大ゆえ,直接求めるのは困難である(テキスト p.215, 問題 2) ? ギブスサンプリング(A.5 参照) 8
9.
この問題に対するギブスサンプリングの考え方 ① ? 個のパターンのうち,任意の1コ
? ?を選択し,これを最後に入力 されたパターンとみなす. ② 当該パターンの所属クラスタ ? ?を未定とみなし,確率的に決定さ れるクラスタを,当該パターンの新たな所属クラスタとして更新す る. ③ ①,②の操作を ? 個すべてのパターンについて繰り返すことにより, 確率分布?(?1, … , ? ?|?1, … , ? ?, ?) に従う ?1, … , ? ? が得られる. 9
10.
ディリクレ過程混合モデルにおける ギブスサンプリングの更新式の導出 10 ? 更新式の導出に先立ち,? から
? ? を除いた集合 ???および ? から ? ? を 除いた集合 ???を定義する.
11.
ディリクレ過程混合モデルにおける ギブスサンプリングの更新式の導出(つづき) ? ギブスサンプリングにより ?
? を確率的に生成するためには,???, ???,? が既知の下で ? ? が与えられたときに,? ? = ??となる事後確 率を計算すれば良い. 11
12.
? 所属クラスタとパラメータを決定する方法,式(11.5)の解法を示す. ? まず,この場合の更新式(12.10)の計算方法を整理する. ?
右辺の第1項は,既存クラスタである場合 ? ? = ?? ,新規クラスタで ある場合 ? ? = ? ??? それぞれについて以下のように書き換えられる. クラスタリング法 1 : 所属クラスタとそのパラメータの決定 12
13.
? 式(12.10)の右辺の第2項は,式(11.42)から以下で書き換えられる. ? ここで,?? ′ は
? 番目のパターンを除く,すべてのパターンのうち,クラ スタ ?? に所属するパターンの数を表す. クラスタリング法 1 : 所属クラスタとそのパラメータの決定(つづき) 13
14.
? 式(12.11),(12.12),(12.13)を式(12.10)に代入することにより,次式を得る. ? パターン
? ? の所属クラスタを更新するためには,式(12.14)の上段を現時点 のクラスタ総数 ? に渡り計算し,下段の計算と合わせて正規化することにより, ? ? = ?? ,? ? = ? ??? となる事後確率を各々計算する.そして,その結果を用いて ? ? の値を決定する. クラスタリング法 1 : 所属クラスタとそのパラメータの決定(つづき) 14
15.
? 以上の操作により, ?1,
… , ? ? の値が決まれば,事前分布?0(?) およ びクラスタ ?? に所属するパターン対する尤度 ?(??|{? ?; ? ? ∈ ?? }) を用いて,ベイズの定理により次式を得,この事後分布に基づいて ? 個のクラスタのパラメータ ??(? = 1, … , ?) を確率的に決定し,更新 する. クラスタリング法 1 : 所属クラスタとそのパラメータの決定(つづき) 15
16.
? 以上の操作(所属クラスタの更新,パラメータの更新)を繰り返し実 行し,式(11.4)の事後分布が最大となったときの ?,
? の値が最適解 である. クラスタリング法 1 : 所属クラスタとそのパラメータの決定(つづき) 16
17.
クラスタリング法 1 のアルゴリズム 入力
: ? 個の観測パターン ?1, … , ? ? 出力 : 各観測パターンの所属クラスタを表す潜在変数の値 ?1, … , ? ?, 総クラスタ数 ?, クラスタのパラメータ ?1, … , ? ?. 17
18.
クラスタリング法 1 のアルゴリズム(つづき) Step
1 : 初期設定 ? 潜在変数 ?1, … , ? ? を初期化する. このときのクラスタ数を ? とし,クラスタ ?? に所属する パターンの数を ?? とする(? = 1, … , ?). ? クラスタパラメータ ?1, … , ? ? を初期化する. ? 事後確率の最大値 ???? ← 0 と初期化する. 18
19.
クラスタリング法 1 のアルゴリズム(つづき) Step
2 : 所属クラスタの更新 以下を? = 1, … , ?に対して実行する. ? パターン ? ? の所属クラスタ ? ? ( = ?? と仮定する)を更新するため, ? ? を現在の所属クラ スタから除外し, ?? ← ?? ? 1 とする. ? これにより ?? = 0 となり,空きクラスタが発生した場合は,このからクラスタを除去すべく, ? ← ? ? 1 とするとともに, ? 以降のクラスタインデックスを全て一つ減らす.また,それに対 応するパラメータのインデックスも更新する. ? 式(12.14) を用いて ? ? の値を確率的に決定する.具体的には, ? ? = ?? ? = 1, … , ? に 対 して式(12.14)の右辺上段の式を計算し, ? ? = ? ??? に対して下段の式を計算する.これ ら(? + 1)個の値の比の確率で ? ? を決定する.また, ? ? = ? ???なら, ? ?+1 ← 1とするとと もに, ? ← ? + 1として総クラスタ数を更新する. 19
20.
クラスタリング法 1 のアルゴリズム(つづき) Step
3 : 各クラスタのパラメータの更新 ? Step 2で得た ? = {?1, … , ? ?} の値に基いて,式(12.15)により,各ク ラスタのパラメータ ??を確率的に決定し,更新する. 20
21.
クラスタリング法 1 のアルゴリズム(つづき) Step
4: 事後確率最大化 ? 現時点での ? = {?1, … , ? ?} ,および ?1, … , ? ? の値を用いて式 (11.4)により,事後確率 ? を計算する.具体的には,ベイズの定理 より次式(12.16)を計算すればよい. ?(?) は式(11.11)のイーウェン スの抽出公式で計算する. 21
22.
クラスタリング法 1 のアルゴリズム(つづき) Step
4: 事後確率最大化(つづき) ? 以下の処理を行う. (1) ? > ???? なら,以下の更新を行い, ? ???? ← ? ? ? ← {?1, … , ? ?} (2) それ以外なら,これまでの????および ? をそのまま保持する. 22
23.
クラスタリング法 1 のアルゴリズム(つづき) Step
5: 終了判定 ? 以上の処理を繰り返し, ????の更新されない状態が十分継続した 場合,ギブスサンプリングの処理を打ち切り, ?,?,および現時点の クラスタ総数 ? を出力して終了する.さもなければ,Step 2に戻る. 23
24.
? 所属クラスタのみを決定する方法,式(11.7)の解法を示す. ? まず?この場合の更新式(12.10)の計算方法を整理する. ?
式(12.8),(12.9),(12.10)から ? を削除することにより次式を得る. クラスタリング法 2 : 所属クラスタのみ決定 24
25.
? 式(12.17)右辺の第1項は,次式で計算できる. ? ここで,事後確率
?(??|???) はベイズの定理より次式となる. クラスタリング法 2 : 所属クラスタのみ決定(つづき) 25
26.
? ここで,??? のうち
?? に所属しないパターンは ?? に依存しないので, ? 式(12.19)に代入すると,次式を得る. クラスタリング法 2 : 所属クラスタのみ決定(つづき) 26
27.
? ? ?
= ? ??? のとき,式(12.21)は次式になる. ? 一方,更新式(12.17)の右辺の第2項 ?(? ?|???) は ,式(12.13)によ り求まる. クラスタリング法 2 : 所属クラスタのみ決定(つづき) 27
28.
? 以上を整理すると,次式を得る. ? パターン
? ? の所属クラスタを更新するためには,式(12.23)の上段を現時点 のクラスタ総数 ? に渡り計算し,下段の計算と合わせて正規化することにより, ? ? = ?? ,? ? = ? ??? となる事後確率を各々計算する.そして,その結果を用い て ? ? の値を決定する. クラスタリング法 2 : 所属クラスタのみ決定(つづき) 28
29.
クラスタリング法 2 のアルゴリズム 入力
: ? 個の観測パターン ?1, … , ? ? 出力 : 各観測パターン所属クラスタを表す潜在変数の値 ?1, … , ? ?, 総クラスタ数 ? 29
30.
クラスタリング法 2 のアルゴリズム(つづき) Step
1 : 初期設定 ? 潜在変数 ?1, … , ? ? を初期化する. このときのクラスタ数を ? とし,クラスタ ?? に所属する パターンの数を ?? とする(? = 1, … , ?). ? 事後確率の最大値 ???? ← 0 と初期化する. 30
31.
クラスタリング法 2 のアルゴリズム(つづき) Step
2 : 所属クラスタの更新 以下を? = 1, … , ?に対して実行する. ? パターン ? ? の所属クラスタ ? ? ( = ?? と仮定する)を更新するため, ? ? を現在の所属クラ スタから除外し, ?? ← ?? ? 1 とする. ? これにより ?? = 0 となり,空きクラスタが発生した場合は,このからクラスタを除去すべく, ? ← ? ? 1 とするとともに, ? 以降のクラスタインデックスを全て一つ減らす.また,それに対 応するパラメータのインデックスも更新する. ? 式(12.23) を用いて ? ? の値を確率的に決定する.具体的には, ? ? = ?? ? = 1, … , ? に 対 して式(12.23)の右辺上段の式を計算し, ? ? = ? ??? に対して下段の式を計算する.これ ら(? + 1)個の値の比の確率で ? ? を決定する.また, ? ? = ? ???なら, ? ?+1 ← 1とするとと もに, ? ← ? + 1として総クラスタ数を更新する. 31
32.
クラスタリング法 2 のアルゴリズム(つづき) Step
3: 事後確率最大化 ? 現時点での ? = {?1, … , ? ?} の値を用いて式(11.6)により,事後確率 ? を計算する.具体的には,ベイズの定理より次の式(12.24)を計算 すればよい. ?(?) は式(11.11)のイーウェンスの抽出公式で計算す る. 32
33.
クラスタリング法 2 のアルゴリズム(つづき) Step
3: 事後確率最大化(つづき) ? 以下の処理を行う. (1) ? > ???? なら,以下の更新を行い, ? ???? ← ? ? ? ← {?1, … , ? ?} (2) それ以外なら,これまでの????および ? をそのまま保持する. 33
34.
クラスタリング法 2 のアルゴリズム(つづき) Step
4: 終了判定 ? 以上の処理を繰り返し, ????の更新されない状態が十分継続した 場合,ギブスサンプリングの処理を打ち切り, ? および現時点のクラ スタ総数 ? を出力して終了する.さもなければ,Step 2に戻る. 34
35.
35 ご清聴ありがとうございました!!!
Download