狠狠撸

狠狠撸Share a Scribd company logo
続?わかりやすい
パターン認識
第12章ディリクレ過程混合モデルによるクラスタリング
12.1 ディリクレ過程混合モデルとその学習法
自己紹介
? Twitter : @aich_08_
? 所属組織 : 匿名知的集団ホクソエム(ピンク担当)
? 職種 : コンサル
? 趣味 : トレーニング,登山
? 全然痩せない????orz
2
ラテアートではなく,
ただのカプチーノだよ。
これまでのおはなし
? 第11章では、分割の確率モデルの具体例として,
ホップの壺モデルと中華料理店過程(Chinese restaurant
process : CRP)を取り上げた.
? この2モデルの分割ルールは,
ディリクレ分布を無限次元に拡張することで導出できることを確認した.
? 第12章では,クラスタ数が未知の場合のクラスタリング方法として,
ディリクレ過程混合モデルによるクラスタリングを紹介する.
? ディリクレ過程混合モデルでは,クラスタ数 ? はディリクレ過程により決定される.
3
これまでのおはなし(つづき)
表記のおさらい(p. 214)
パターン集合 : ? = {?1, … , ? ?}
パターン集合 ? に対応するクラスタ集合 : ? = {?1, … , ? ?}
各クラスタに対するパラメータ : ? = {?1, … , ? ?}
4
ディリクレ過程混合モデルによる生成モデル
? ディリクレ過程混合モデルによる生成モデルは以下のように
記される.ここで,? は集中度パラメータ, ?0(?)は基底分布を表す.
5
CRPに基づくディリクレ過程混合モデル
? 中華料理店過程(Chinese Restaurant Process : CRP)によるディリクレ過程
混合モデルの生成プロセスは以下のように記される.
? ここで、CPR(?)は集中度パラメータ ? のCPRを、 ?は?0 ? ハイパーパラ
メーを表す.
6
生成モデルに対する学習
? いま、生成モデルからある観測パターン ? が得られたとする.
? 以下に示される事後分布を最大化することにより,クラスタ ? およびパラ
メータ ? を決定する.
■ 所属クラスタとパラメータを決定する場合
7
生成モデルに対する学習(つづき)
■ 所属クラスタのみを決定する場合
→ ? = {?1, … , ? ?} の可能なすべての組合せを評価するのは,その組合せ
が膨大ゆえ,直接求めるのは困難である(テキスト p.215, 問題 2)
? ギブスサンプリング(A.5 参照)
8
この問題に対するギブスサンプリングの考え方
① ? 個のパターンのうち,任意の1コ ? ?を選択し,これを最後に入力
されたパターンとみなす.
② 当該パターンの所属クラスタ ? ?を未定とみなし,確率的に決定さ
れるクラスタを,当該パターンの新たな所属クラスタとして更新す
る.
③ ①,②の操作を ? 個すべてのパターンについて繰り返すことにより,
確率分布?(?1, … , ? ?|?1, … , ? ?, ?) に従う ?1, … , ? ? が得られる.
9
ディリクレ過程混合モデルにおける
ギブスサンプリングの更新式の導出
10
? 更新式の導出に先立ち,? から ? ? を除いた集合 ???および ? から ? ? を
除いた集合 ???を定義する.
ディリクレ過程混合モデルにおける
ギブスサンプリングの更新式の導出(つづき)
? ギブスサンプリングにより ? ? を確率的に生成するためには,???,
???,? が既知の下で ? ? が与えられたときに,? ? = ??となる事後確
率を計算すれば良い.
11
? 所属クラスタとパラメータを決定する方法,式(11.5)の解法を示す.
? まず,この場合の更新式(12.10)の計算方法を整理する.
? 右辺の第1項は,既存クラスタである場合 ? ? = ?? ,新規クラスタで
ある場合 ? ? = ? ??? それぞれについて以下のように書き換えられる.
クラスタリング法 1 :
所属クラスタとそのパラメータの決定
12
? 式(12.10)の右辺の第2項は,式(11.42)から以下で書き換えられる.
? ここで,??
′
は ? 番目のパターンを除く,すべてのパターンのうち,クラ
スタ ?? に所属するパターンの数を表す.
クラスタリング法 1 :
所属クラスタとそのパラメータの決定(つづき)
13
? 式(12.11),(12.12),(12.13)を式(12.10)に代入することにより,次式を得る.
? パターン ? ? の所属クラスタを更新するためには,式(12.14)の上段を現時点
のクラスタ総数 ? に渡り計算し,下段の計算と合わせて正規化することにより,
? ? = ?? ,? ? = ? ??? となる事後確率を各々計算する.そして,その結果を用いて
? ? の値を決定する.
クラスタリング法 1 :
所属クラスタとそのパラメータの決定(つづき)
14
? 以上の操作により, ?1, … , ? ? の値が決まれば,事前分布?0(?) およ
びクラスタ ?? に所属するパターン対する尤度 ?(??|{? ?; ? ? ∈ ?? })
を用いて,ベイズの定理により次式を得,この事後分布に基づいて
? 個のクラスタのパラメータ ??(? = 1, … , ?) を確率的に決定し,更新
する.
クラスタリング法 1 :
所属クラスタとそのパラメータの決定(つづき)
15
? 以上の操作(所属クラスタの更新,パラメータの更新)を繰り返し実
行し,式(11.4)の事後分布が最大となったときの ?, ? の値が最適解
である.
クラスタリング法 1 :
所属クラスタとそのパラメータの決定(つづき)
16
クラスタリング法 1 のアルゴリズム
入力 : ? 個の観測パターン ?1, … , ? ?
出力 : 各観測パターンの所属クラスタを表す潜在変数の値 ?1, … , ? ?,
総クラスタ数 ?,
クラスタのパラメータ ?1, … , ? ?.
17
クラスタリング法 1 のアルゴリズム(つづき)
Step 1 : 初期設定
? 潜在変数 ?1, … , ? ? を初期化する.
このときのクラスタ数を ? とし,クラスタ ?? に所属する
パターンの数を ?? とする(? = 1, … , ?).
? クラスタパラメータ ?1, … , ? ? を初期化する.
? 事後確率の最大値 ???? ← 0 と初期化する.
18
クラスタリング法 1 のアルゴリズム(つづき)
Step 2 : 所属クラスタの更新
以下を? = 1, … , ?に対して実行する.
? パターン ? ? の所属クラスタ ? ? ( = ?? と仮定する)を更新するため, ? ? を現在の所属クラ
スタから除外し, ?? ← ?? ? 1 とする.
? これにより ?? = 0 となり,空きクラスタが発生した場合は,このからクラスタを除去すべく,
? ← ? ? 1 とするとともに, ? 以降のクラスタインデックスを全て一つ減らす.また,それに対
応するパラメータのインデックスも更新する.
? 式(12.14) を用いて ? ? の値を確率的に決定する.具体的には, ? ? = ?? ? = 1, … , ? に 対
して式(12.14)の右辺上段の式を計算し, ? ? = ? ??? に対して下段の式を計算する.これ
ら(? + 1)個の値の比の確率で ? ? を決定する.また, ? ? = ? ???なら, ? ?+1 ← 1とするとと
もに, ? ← ? + 1として総クラスタ数を更新する. 19
クラスタリング法 1 のアルゴリズム(つづき)
Step 3 : 各クラスタのパラメータの更新
? Step 2で得た ? = {?1, … , ? ?} の値に基いて,式(12.15)により,各ク
ラスタのパラメータ ??を確率的に決定し,更新する.
20
クラスタリング法 1 のアルゴリズム(つづき)
Step 4: 事後確率最大化
? 現時点での ? = {?1, … , ? ?} ,および ?1, … , ? ? の値を用いて式
(11.4)により,事後確率 ? を計算する.具体的には,ベイズの定理
より次式(12.16)を計算すればよい. ?(?) は式(11.11)のイーウェン
スの抽出公式で計算する.
21
クラスタリング法 1 のアルゴリズム(つづき)
Step 4: 事後確率最大化(つづき)
? 以下の処理を行う.
(1) ? > ???? なら,以下の更新を行い,
? ???? ← ?
? ? ← {?1, … , ? ?}
(2) それ以外なら,これまでの????および ? をそのまま保持する.
22
クラスタリング法 1 のアルゴリズム(つづき)
Step 5: 終了判定
? 以上の処理を繰り返し, ????の更新されない状態が十分継続した
場合,ギブスサンプリングの処理を打ち切り, ?,?,および現時点の
クラスタ総数 ? を出力して終了する.さもなければ,Step 2に戻る.
23
? 所属クラスタのみを決定する方法,式(11.7)の解法を示す.
? まず?この場合の更新式(12.10)の計算方法を整理する.
? 式(12.8),(12.9),(12.10)から ? を削除することにより次式を得る.
クラスタリング法 2 :
所属クラスタのみ決定
24
? 式(12.17)右辺の第1項は,次式で計算できる.
? ここで,事後確率 ?(??|???) はベイズの定理より次式となる.
クラスタリング法 2 :
所属クラスタのみ決定(つづき)
25
? ここで,??? のうち ?? に所属しないパターンは ?? に依存しないので,
? 式(12.19)に代入すると,次式を得る.
クラスタリング法 2 :
所属クラスタのみ決定(つづき)
26
? ? ? = ? ??? のとき,式(12.21)は次式になる.
? 一方,更新式(12.17)の右辺の第2項 ?(? ?|???) は ,式(12.13)によ
り求まる.
クラスタリング法 2 :
所属クラスタのみ決定(つづき)
27
? 以上を整理すると,次式を得る.
? パターン ? ? の所属クラスタを更新するためには,式(12.23)の上段を現時点
のクラスタ総数 ? に渡り計算し,下段の計算と合わせて正規化することにより,
? ? = ?? ,? ? = ? ??? となる事後確率を各々計算する.そして,その結果を用い
て ? ? の値を決定する.
クラスタリング法 2 :
所属クラスタのみ決定(つづき)
28
クラスタリング法 2 のアルゴリズム
入力 : ? 個の観測パターン ?1, … , ? ?
出力 : 各観測パターン所属クラスタを表す潜在変数の値 ?1, … , ? ?,
総クラスタ数 ?
29
クラスタリング法 2 のアルゴリズム(つづき)
Step 1 : 初期設定
? 潜在変数 ?1, … , ? ? を初期化する.
このときのクラスタ数を ? とし,クラスタ ?? に所属する
パターンの数を ?? とする(? = 1, … , ?).
? 事後確率の最大値 ???? ← 0 と初期化する.
30
クラスタリング法 2 のアルゴリズム(つづき)
Step 2 : 所属クラスタの更新
以下を? = 1, … , ?に対して実行する.
? パターン ? ? の所属クラスタ ? ? ( = ?? と仮定する)を更新するため, ? ? を現在の所属クラ
スタから除外し, ?? ← ?? ? 1 とする.
? これにより ?? = 0 となり,空きクラスタが発生した場合は,このからクラスタを除去すべく,
? ← ? ? 1 とするとともに, ? 以降のクラスタインデックスを全て一つ減らす.また,それに対
応するパラメータのインデックスも更新する.
? 式(12.23) を用いて ? ? の値を確率的に決定する.具体的には, ? ? = ?? ? = 1, … , ? に 対
して式(12.23)の右辺上段の式を計算し, ? ? = ? ??? に対して下段の式を計算する.これ
ら(? + 1)個の値の比の確率で ? ? を決定する.また, ? ? = ? ???なら, ? ?+1 ← 1とするとと
もに, ? ← ? + 1として総クラスタ数を更新する. 31
クラスタリング法 2 のアルゴリズム(つづき)
Step 3: 事後確率最大化
? 現時点での ? = {?1, … , ? ?} の値を用いて式(11.6)により,事後確率
? を計算する.具体的には,ベイズの定理より次の式(12.24)を計算
すればよい. ?(?) は式(11.11)のイーウェンスの抽出公式で計算す
る.
32
クラスタリング法 2 のアルゴリズム(つづき)
Step 3: 事後確率最大化(つづき)
? 以下の処理を行う.
(1) ? > ???? なら,以下の更新を行い,
? ???? ← ?
? ? ← {?1, … , ? ?}
(2) それ以外なら,これまでの????および ? をそのまま保持する.
33
クラスタリング法 2 のアルゴリズム(つづき)
Step 4: 終了判定
? 以上の処理を繰り返し, ????の更新されない状態が十分継続した
場合,ギブスサンプリングの処理を打ち切り, ? および現時点のクラ
スタ総数 ? を出力して終了する.さもなければ,Step 2に戻る.
34
35
ご清聴ありがとうございました!!!

More Related Content

What's hot (20)

21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
Toru Imai
?
搁で颈蝉辞尘补辫(多様体学习のはなし)
搁で颈蝉辞尘补辫(多様体学习のはなし)搁で颈蝉辞尘补辫(多様体学习のはなし)
搁で颈蝉辞尘补辫(多様体学习のはなし)
Kohta Ishikawa
?
クラシックな机械学习入门:付録:よく使う线形代数の公式
クラシックな机械学习入门:付録:よく使う线形代数の公式クラシックな机械学习入门:付録:よく使う线形代数の公式
クラシックな机械学习入门:付録:よく使う线形代数の公式
Hiroshi Nakagawa
?
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
?
笔搁惭尝轮読#1
笔搁惭尝轮読#1笔搁惭尝轮読#1
笔搁惭尝轮読#1
matsuolab
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
星野「调査観察データの统计科学」第3章
星野「调査観察データの统计科学」第3章星野「调査観察データの统计科学」第3章
星野「调査観察データの统计科学」第3章
Shuyo Nakatani
?
负の二项分布について
负の二项分布について负の二项分布について
负の二项分布について
Hiroshi Shimizu
?
セミハ?ラメトリック推论の基础
セミハ?ラメトリック推论の基础セミハ?ラメトリック推论の基础
セミハ?ラメトリック推论の基础
Daisuke Yoneoka
?
パターン认识と机械学习入门
パターン认识と机械学习入门パターン认识と机械学习入门
パターン认识と机械学习入门
Momoko Hayamizu
?
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
?
ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介
Naoki Hayashi
?
笔搁惭尝轮読#2
笔搁惭尝轮読#2笔搁惭尝轮読#2
笔搁惭尝轮読#2
matsuolab
?
自动微分変分ベイズ法の绍介
自动微分変分ベイズ法の绍介自动微分変分ベイズ法の绍介
自动微分変分ベイズ法の绍介
Taku Yoshioka
?
15分て?わかる(范囲の)ヘ?イス?统计学
15分て?わかる(范囲の)ヘ?イス?统计学15分て?わかる(范囲の)ヘ?イス?统计学
15分て?わかる(范囲の)ヘ?イス?统计学
Ken'ichi Matsui
?
阶层ディリクレ过程事前分布モデルによる画像领域分割
阶层ディリクレ过程事前分布モデルによる画像领域分割阶层ディリクレ过程事前分布モデルによる画像领域分割
阶层ディリクレ过程事前分布モデルによる画像领域分割
tn1031
?
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
takaya imai
?
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
?
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
Toru Imai
?
搁で颈蝉辞尘补辫(多様体学习のはなし)
搁で颈蝉辞尘补辫(多様体学习のはなし)搁で颈蝉辞尘补辫(多様体学习のはなし)
搁で颈蝉辞尘补辫(多様体学习のはなし)
Kohta Ishikawa
?
クラシックな机械学习入门:付録:よく使う线形代数の公式
クラシックな机械学习入门:付録:よく使う线形代数の公式クラシックな机械学习入门:付録:よく使う线形代数の公式
クラシックな机械学习入门:付録:よく使う线形代数の公式
Hiroshi Nakagawa
?
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
?
笔搁惭尝轮読#1
笔搁惭尝轮読#1笔搁惭尝轮読#1
笔搁惭尝轮読#1
matsuolab
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
星野「调査観察データの统计科学」第3章
星野「调査観察データの统计科学」第3章星野「调査観察データの统计科学」第3章
星野「调査観察データの统计科学」第3章
Shuyo Nakatani
?
负の二项分布について
负の二项分布について负の二项分布について
负の二项分布について
Hiroshi Shimizu
?
セミハ?ラメトリック推论の基础
セミハ?ラメトリック推论の基础セミハ?ラメトリック推论の基础
セミハ?ラメトリック推论の基础
Daisuke Yoneoka
?
パターン认识と机械学习入门
パターン认识と机械学习入门パターン认识と机械学习入门
パターン认识と机械学习入门
Momoko Hayamizu
?
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
?
ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介
Naoki Hayashi
?
笔搁惭尝轮読#2
笔搁惭尝轮読#2笔搁惭尝轮読#2
笔搁惭尝轮読#2
matsuolab
?
自动微分変分ベイズ法の绍介
自动微分変分ベイズ法の绍介自动微分変分ベイズ法の绍介
自动微分変分ベイズ法の绍介
Taku Yoshioka
?
15分て?わかる(范囲の)ヘ?イス?统计学
15分て?わかる(范囲の)ヘ?イス?统计学15分て?わかる(范囲の)ヘ?イス?统计学
15分て?わかる(范囲の)ヘ?イス?统计学
Ken'ichi Matsui
?
阶层ディリクレ过程事前分布モデルによる画像领域分割
阶层ディリクレ过程事前分布モデルによる画像领域分割阶层ディリクレ过程事前分布モデルによる画像领域分割
阶层ディリクレ过程事前分布モデルによる画像领域分割
tn1031
?
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
画像认识の初歩、厂滨贵罢,厂鲍搁贵特徴量
takaya imai
?
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
?

Similar to 「続?わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 ) (16)

Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
hnisiji
?
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
hirokazutanaka
?
わかりやすいハ?ターン认识6章.辫辫迟虫
わかりやすいハ?ターン认识6章.辫辫迟虫わかりやすいハ?ターン认识6章.辫辫迟虫
わかりやすいハ?ターン认识6章.辫辫迟虫
KOKIFUJIWARA2
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
PRML 6.4-6.5
PRML 6.4-6.5PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
?
论文绍介&补尘辫;実験
论文绍介&补尘辫;実験论文绍介&补尘辫;実験
论文绍介&补尘辫;実験
SHINGO MORISHITA
?
尘补丑辞耻迟イン?アクション9章
尘补丑辞耻迟イン?アクション9章尘补丑辞耻迟イン?アクション9章
尘补丑辞耻迟イン?アクション9章
Satosi Sakai
?
Large Scale Incremental Learning
Large Scale Incremental LearningLarge Scale Incremental Learning
Large Scale Incremental Learning
cvpaper. challenge
?
Matrix capsules with em routing
Matrix capsules with em routingMatrix capsules with em routing
Matrix capsules with em routing
Kazuki Fujikawa
?
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
. .
?
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足
ke beck
?
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
?
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
?
AI2018 8 ニューラルネットワークの基础
AI2018 8 ニューラルネットワークの基础AI2018 8 ニューラルネットワークの基础
AI2018 8 ニューラルネットワークの基础
Hirotaka Hachiya
?
Quantum Support Vector Machine
Quantum Support Vector MachineQuantum Support Vector Machine
Quantum Support Vector Machine
Yuma Nakamura
?
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
hnisiji
?
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
hirokazutanaka
?
わかりやすいハ?ターン认识6章.辫辫迟虫
わかりやすいハ?ターン认识6章.辫辫迟虫わかりやすいハ?ターン认识6章.辫辫迟虫
わかりやすいハ?ターン认识6章.辫辫迟虫
KOKIFUJIWARA2
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
论文绍介&补尘辫;実験
论文绍介&补尘辫;実験论文绍介&补尘辫;実験
论文绍介&补尘辫;実験
SHINGO MORISHITA
?
尘补丑辞耻迟イン?アクション9章
尘补丑辞耻迟イン?アクション9章尘补丑辞耻迟イン?アクション9章
尘补丑辞耻迟イン?アクション9章
Satosi Sakai
?
Matrix capsules with em routing
Matrix capsules with em routingMatrix capsules with em routing
Matrix capsules with em routing
Kazuki Fujikawa
?
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
. .
?
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足
ke beck
?
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
?
AI2018 8 ニューラルネットワークの基础
AI2018 8 ニューラルネットワークの基础AI2018 8 ニューラルネットワークの基础
AI2018 8 ニューラルネットワークの基础
Hirotaka Hachiya
?
Quantum Support Vector Machine
Quantum Support Vector MachineQuantum Support Vector Machine
Quantum Support Vector Machine
Yuma Nakamura
?

「続?わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )