狠狠撸

狠狠撸Share a Scribd company logo
学习ベクトルの量子化

        東京大学 三好雄也



1
はじめに



かなり参考にさせて頂きました http://www.slideshare.net/sleipnir002/08-09-k-lvq
                                               問題があれば削除します




 2
量子化とは
?       量子化(Quantization)
        ?   ある連続量を、データ量削減のために、最も近い不連続値(代表ベクト
            ル、セントロイド)に置き換える(近似、情報圧縮)すること。(精度は落
            ちます。)
        ?   画像圧縮に用いられたりするようです。




    3
学习ベクトルの量子化のイメージ 1
?       入力データを代表ベクトルによって分割近似するという点で
        はk-meansと目的を同じくする。
?       入力データに近い代表ベクトルによって判別を行う点ではk-
        近傍法と関連がある。
?       何はともあれ、代表ベクトルをいかに配置するかが鍵

                          代表ベクトルによる
         入力データとラベル
                           入力空間の分割




    4
学习ベクトルの量子化のイメージ 2

?       入力データに近い代表ベクトルによって判別を行う点ではk-
        近傍法と関連がある。
                          代表ベクトルによる
         入力データとラベル
                           入力空間の分割




    5
学习ベクトルの量子化の学習プロセス
代表データの初期値の決定プロセス
1.           学習データをk-近傍法によって判別
2.           判別の誤りのないデータからランダムで選ぶ


学習プロセス
1.           時刻tにおいて1つのデータ(テスト点)を選択
2.           代表ベクトルの更新

?        時刻tで選ばれたデータ (x(t),y(t))
         ?   x:特徴量、y:ラベル
?        時刻tにおける代表データ ?1 (t)
         ?   代表データのラベル ? ? (t), i=1,2,…k


     6
学習アルゴリズム


?       学習アルゴリズムとしては以下のものがある
1.      LVQ1
2.      LVQ2.1
3.      LVQ3
4.      OLVQ1(Optimized-learning rate LVQ1)




    7
LVQ1 -1

?       テスト点(x(t),y(t))が入力される
?       テスト点から最も近い代表ベクトルを c とする
                         c = ?????? ? ? ? ? ?

?       このとき
          y(t)= ? ? (t) → ? ? (t+1) = ? ? (t) + α(t)(x(t)- ? ? (t))
          y(t)≠ ? ? (t) → ? ? (t+1) = ? ? (t)-α(t)(x(t)- ? ? (t))
                                               ただし、 0 < α(t) < 1
               i≠c   → ? ? (t+1) = ? ? (t)
    8
LVQ1 -2

?       y(t)= ? ? (t) → ? ? (t)をx(t)に近づける
?       y(t)≠ ? ? (t) → ? ? (t)をx(t)から遠ざける




    9
LVQ2.1 -1


?    LVQ1は1つの代表ベクトルしか更新しなかったが、2つの代表
     ベクトルに対して更新を行うアルゴリズムがLVQ2.1

更新の対象
? ラベルが違うがテスト点から最も近い代表ベクトル ? ? (t)
? ラベルが同じでテスト点から最も近い代表ベクトル ? ? (t)




    10
LVQ2.1 -2
           1??              ?? ? ?
?    s   =       とし、min(       ,     ) > s なら、以下の更新を行う
           1+?              ? ? ??

            ? ? (t+1) = ? ? (t)-α(t)(x(t)- ? ? (t)) → 遠ざける
            ? ? (t+1) = ? ? (t) + α(t)(x(t)- ? ? (t)) → 近づける

                                                           ??         1??
                                     左図の場合、                     >s=         となる
                  ??                                       ??         1+?
                       ??

                                            ??       ??
                 ??    ??            min(        ,        )≦1であり、 ? ? と? ? が近
                                            ??       ??
                                     いほど、更新が行われやすくなる。

    11
LVQ3
?    LVQ1とLVQ2.1を融合したようなもの
?    テスト点から近い2つ代表ベクトルを順に? ? (t), ? ? (t)とし、以
     下のどちらかの条件を満たした場合に更新を行う。
1.       li (t) , lj (t)がともにy(t)と同じ

            ?? (t+1)= ?? (t)+εα(t)(x(t)-?? (t)) ,h=i,j →近づける
2.       li (t)≠y(t), lj (t)=y(t)、かつLVQ2.1と同じ条件(テスト点が窓
         に入る)の場合
            ? ? (t+1) = ? ? (t)-α(t)(x(t)- ? ? (t)) → 遠ざける
            ? ? (t+1) = ? ? (t) + α(t)(x(t)- ? ? (t)) → 近づける

    12
OLVQ1 -1
?    LVQ1における α(t) の最適化 → 学習の収束特性の改善
?    y(t)とli (t)との関係を示す変数を導入する

                           +1, i=c かつ y(t) = li (t)
                ?i (t) =   -1, i=c かつ y(t) ≠ li (t)
                            0, i ≠ c

         y(t)= ? ? (t) → ? ? (t+1) = ? ? (t) + α(t)(x(t)- ? ? (t))
         y(t)≠ ? ? (t) → ? ? (t+1) = ? ? (t)-α(t)(x(t)- ? ? (t))
            i ≠ c → ? ? (t+1) = ? ? (t)

         ? mi (t+1) = mi (t) + ?i (t)αi (t)(x(t)- ? ? (t))

    13
OLVQ1 -2
mi (t+1) = mi (t) + ?i (t)αi (t)(x(t)- ? ? (t))
               = (1-?i (t)αi (t)) ? ? (t) + ?i (t)αi (t)x(t)
さらに展開していくと、
      mi (t+1) = (1-?i (t)αi (t))(1-? ? (t-1)αi (t-1))? ? (t)
                  + (1-?i (t)αi (t))? ? (t-1)αi (t-1)x(t-1)
                  + ?i (t)αi (t) x(t)
?i (t)?i (t-1)=0のとき、 x(t-1) と x(t) の係数の絶対値が等し
いとし、さらに、 ?i =1, 0< α <1 を考慮すると、最終的に
                                     αi(??1)
                       αi (?) =
                                  1+si (?)αi (??1)

 14
問題点




1.    初期値依存
2.    学習データによる学習の順番にも結果が依存する




 15
学習ベクトル -入力データ in R
          library(class) ; library(mlbench)
          dim <- 2 # 入力空間の次元 ; n <- 300 # 学習データ数

          smpl <- mlbench.corners(n, d=dim, sd=0.25)
          x <- smpl$x ; y <- smpl$classes

          size <- 8 # 代表ベクトルの数 ; k <- 1 # 初期化
          cd <- lvqinit(x,y, size=size, k=k) ; cd3 <- lvq3(x,y,cd)

          # 学習前後の判別境界
          gsize <- 100 # グリッドのサイズ
          x1 <- seq(min(x[,1]), max(x[,1]), length=gsize)
          x2 <- seq(min(x[,2]), max(x[,2]), length=gsize)

          xtest <- as.matrix(expand.grid(x1,x2))
          yest <- lvqtest(cd, xtest)
          yest3 <- lvqtest(cd3, xtest)
          cntr <- matrix(match(yest, levels(factor(yest))), gsize, gsize)
          cntr3 <- matrix(match(yest3, levels(factor(yest3))), gsize, gsize)

          plot(x, col=y, pch=20+as.numeric(y), xlab="x1", ylab="x2",
          main="Initial Codebook")
          # 代表ベクトル
          points(cd3$x, col=cd3$cl, bg=cd$cl,
          pch=20+as.numeric(cd$cl),cex=2)
16
学習ベクトル -学習前と学習後




# 学習前の境界を表示                                         # 学習後
for(i in 1:max(cntr)) contour(x1, x2, cntr==i,      plot(x, col=y, pch=20+as.numeric(y), xlab="x1",
levels=0.5, lwd=2, lty=1, drawlabels=F, add=TRUE)   ylab="x2", main="LVQ3")
                                                    points(cd3$x, col=cd3$cl, bg=cd$cl,
                                                    pch=20+as.numeric(cd$cl),cex=2)
                                                    for(i in
                                                    1:max(cntr3))contour(x1,x2,cntr==i,levels=0.5,l
 17                                                 wd=2,lty=1, drawlabels=F, add=TRUE)

More Related Content

What's hot (20)

ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
?
ブラックボックス最适化とその応用
ブラックボックス最适化とその応用ブラックボックス最适化とその応用
ブラックボックス最适化とその応用
gree_tech
?
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Preferred Networks
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
?
方策勾配型强化学习の基础と応用
方策勾配型强化学习の基础と応用方策勾配型强化学习の基础と応用
方策勾配型强化学习の基础と応用
Ryo Iwaki
?
罢别苍蝉辞谤贵濒辞飞で逆强化学习
罢别苍蝉辞谤贵濒辞飞で逆强化学习罢别苍蝉辞谤贵濒辞飞で逆强化学习
罢别苍蝉辞谤贵濒辞飞で逆强化学习
Mitsuhisa Ohta
?
强化学习その3
强化学习その3强化学习その3
强化学习その3
nishio
?
贰尝叠翱型痴础贰のダメなところ
贰尝叠翱型痴础贰のダメなところ贰尝叠翱型痴础贰のダメなところ
贰尝叠翱型痴础贰のダメなところ
KCS Keio Computer Society
?
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
?
「世界モデル」と関连研究について
「世界モデル」と関连研究について「世界モデル」と関连研究について
「世界モデル」と関连研究について
Masahiro Suzuki
?
ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介
Naoki Hayashi
?
劣モジュラ最适化と机械学习1章
劣モジュラ最适化と机械学习1章劣モジュラ最适化と机械学习1章
劣モジュラ最适化と机械学习1章
Hakky St
?
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
?
Variational AutoEncoder
Variational AutoEncoderVariational AutoEncoder
Variational AutoEncoder
Kazuki Nitta
?
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
?
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
Miyoshi Yuya
?
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
?
ブラックボックス最适化とその応用
ブラックボックス最适化とその応用ブラックボックス最适化とその応用
ブラックボックス最适化とその応用
gree_tech
?
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Preferred Networks
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
?
方策勾配型强化学习の基础と応用
方策勾配型强化学习の基础と応用方策勾配型强化学习の基础と応用
方策勾配型强化学习の基础と応用
Ryo Iwaki
?
罢别苍蝉辞谤贵濒辞飞で逆强化学习
罢别苍蝉辞谤贵濒辞飞で逆强化学习罢别苍蝉辞谤贵濒辞飞で逆强化学习
罢别苍蝉辞谤贵濒辞飞で逆强化学习
Mitsuhisa Ohta
?
强化学习その3
强化学习その3强化学习その3
强化学习その3
nishio
?
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
?
「世界モデル」と関连研究について
「世界モデル」と関连研究について「世界モデル」と関连研究について
「世界モデル」と関连研究について
Masahiro Suzuki
?
ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介
Naoki Hayashi
?
劣モジュラ最适化と机械学习1章
劣モジュラ最适化と机械学习1章劣モジュラ最适化と机械学习1章
劣モジュラ最适化と机械学习1章
Hakky St
?
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
?
Variational AutoEncoder
Variational AutoEncoderVariational AutoEncoder
Variational AutoEncoder
Kazuki Nitta
?
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
?
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
Miyoshi Yuya
?

Viewers also liked (20)

パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
sleipnir002
?
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
?
Rによる分類木 入門
Rによる分類木 入門Rによる分類木 入門
Rによる分類木 入門
Hiro47
?
厂痴惭について
厂痴惭について厂痴惭について
厂痴惭について
mknh1122
?
ベイズ统计入门
ベイズ统计入门ベイズ统计入门
ベイズ统计入门
Miyoshi Yuya
?
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
Nguyen Tuan
?
K-means hashing (CVPR'13) とハッシング周り
K-means hashing (CVPR'13) とハッシング周りK-means hashing (CVPR'13) とハッシング周り
K-means hashing (CVPR'13) とハッシング周り
Yusuke Uchida
?
異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知
hagino 3000
?
はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)
はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)
はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
?
パターン認識 第01章-判別能力の評価
パターン認識 第01章-判別能力の評価パターン認識 第01章-判別能力の評価
パターン認識 第01章-判別能力の評価
sleipnir002
?
Rによる主成分分析 入門
Rによる主成分分析 入門Rによる主成分分析 入門
Rによる主成分分析 入門
Hiro47
?
Hdmits fpgax6-v0
Hdmits fpgax6-v0Hdmits fpgax6-v0
Hdmits fpgax6-v0
aomtoku
?
Synthesijer fpgax 20150201
Synthesijer fpgax 20150201Synthesijer fpgax 20150201
Synthesijer fpgax 20150201
Takefumi MIYOSHI
?
贵笔骋础+厂测苍迟丑别蝉颈箩别谤でヴォコーダを作ってみた
贵笔骋础+厂测苍迟丑别蝉颈箩别谤でヴォコーダを作ってみた贵笔骋础+厂测苍迟丑别蝉颈箩别谤でヴォコーダを作ってみた
贵笔骋础+厂测苍迟丑别蝉颈箩别谤でヴォコーダを作ってみた
Ryota Suzuki
?
5分で分かる自己组织化マップ
5分で分かる自己组织化マップ5分で分かる自己组织化マップ
5分で分かる自己组织化マップ
Daisuke Takai
?
FPGAで作るOpenFlow Switch (FPGAエクストリーム?コンピューティング 第6回) FPGAX#6
FPGAで作るOpenFlow Switch (FPGAエクストリーム?コンピューティング 第6回) FPGAX#6FPGAで作るOpenFlow Switch (FPGAエクストリーム?コンピューティング 第6回) FPGAX#6
FPGAで作るOpenFlow Switch (FPGAエクストリーム?コンピューティング 第6回) FPGAX#6
Kentaro Ebisawa
?
FPGAX6_hayashi
FPGAX6_hayashiFPGAX6_hayashi
FPGAX6_hayashi
愛美 林
?
ウェーブレット変换の基础と応用事例:连続ウェーブレット変换を中心に
ウェーブレット変换の基础と応用事例:连続ウェーブレット変换を中心にウェーブレット変换の基础と応用事例:连続ウェーブレット変换を中心に
ウェーブレット変换の基础と応用事例:连続ウェーブレット変换を中心に
Ryosuke Tachibana
?
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
sleipnir002
?
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
?
Rによる分類木 入門
Rによる分類木 入門Rによる分類木 入門
Rによる分類木 入門
Hiro47
?
厂痴惭について
厂痴惭について厂痴惭について
厂痴惭について
mknh1122
?
ベイズ统计入门
ベイズ统计入门ベイズ统计入门
ベイズ统计入门
Miyoshi Yuya
?
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
Nguyen Tuan
?
K-means hashing (CVPR'13) とハッシング周り
K-means hashing (CVPR'13) とハッシング周りK-means hashing (CVPR'13) とハッシング周り
K-means hashing (CVPR'13) とハッシング周り
Yusuke Uchida
?
異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知
hagino 3000
?
はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)
はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)
はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
?
パターン認識 第01章-判別能力の評価
パターン認識 第01章-判別能力の評価パターン認識 第01章-判別能力の評価
パターン認識 第01章-判別能力の評価
sleipnir002
?
Rによる主成分分析 入門
Rによる主成分分析 入門Rによる主成分分析 入門
Rによる主成分分析 入門
Hiro47
?
Hdmits fpgax6-v0
Hdmits fpgax6-v0Hdmits fpgax6-v0
Hdmits fpgax6-v0
aomtoku
?
贵笔骋础+厂测苍迟丑别蝉颈箩别谤でヴォコーダを作ってみた
贵笔骋础+厂测苍迟丑别蝉颈箩别谤でヴォコーダを作ってみた贵笔骋础+厂测苍迟丑别蝉颈箩别谤でヴォコーダを作ってみた
贵笔骋础+厂测苍迟丑别蝉颈箩别谤でヴォコーダを作ってみた
Ryota Suzuki
?
5分で分かる自己组织化マップ
5分で分かる自己组织化マップ5分で分かる自己组织化マップ
5分で分かる自己组织化マップ
Daisuke Takai
?
FPGAで作るOpenFlow Switch (FPGAエクストリーム?コンピューティング 第6回) FPGAX#6
FPGAで作るOpenFlow Switch (FPGAエクストリーム?コンピューティング 第6回) FPGAX#6FPGAで作るOpenFlow Switch (FPGAエクストリーム?コンピューティング 第6回) FPGAX#6
FPGAで作るOpenFlow Switch (FPGAエクストリーム?コンピューティング 第6回) FPGAX#6
Kentaro Ebisawa
?
ウェーブレット変换の基础と応用事例:连続ウェーブレット変换を中心に
ウェーブレット変换の基础と応用事例:连続ウェーブレット変换を中心にウェーブレット変换の基础と応用事例:连続ウェーブレット変换を中心に
ウェーブレット変换の基础と応用事例:连続ウェーブレット変换を中心に
Ryosuke Tachibana
?

Similar to パターン認識第9章 学習ベクトル量子化 (20)

C07
C07C07
C07
anonymousouj
?
线形识别モデル
线形识别モデル线形识别モデル
线形识别モデル
貴之 八木
?
2022年度秋学期 応用数学(解析) 第7回 2階線形微分方程式(1) (2022. 11. 10)
2022年度秋学期 応用数学(解析) 第7回 2階線形微分方程式(1) (2022. 11. 10) 2022年度秋学期 応用数学(解析) 第7回 2階線形微分方程式(1) (2022. 11. 10)
2022年度秋学期 応用数学(解析) 第7回 2階線形微分方程式(1) (2022. 11. 10)
Akira Asano
?
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
?
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
t2tarumi
?
ユークリッド距离以外の距离で教师无しクラスタリング
ユークリッド距离以外の距离で教师无しクラスタリングユークリッド距离以外の距离で教师无しクラスタリング
ユークリッド距离以外の距离で教师无しクラスタリング
Maruyama Tetsutaro
?
NN, CNN, and Image Analysis
NN, CNN, and Image AnalysisNN, CNN, and Image Analysis
NN, CNN, and Image Analysis
Yuki Shimada
?
PRML 4.1 Discriminant Function
PRML 4.1 Discriminant FunctionPRML 4.1 Discriminant Function
PRML 4.1 Discriminant Function
Shintaro Takemura
?
パターン认识と机械学习6章(カーネル法)
パターン认识と机械学习6章(カーネル法)パターン认识と机械学习6章(カーネル法)
パターン认识と机械学习6章(カーネル法)
Yukara Ikemiya
?
Prml sec6
Prml sec6Prml sec6
Prml sec6
Keisuke OTAKI
?
社内機械学習勉強会 #5
社内機械学習勉強会 #5社内機械学習勉強会 #5
社内機械学習勉強会 #5
shingo suzuki
?
2022年度秋学期 応用数学(解析) 第5回 微分方程式とは?変数分離形 (2022. 10. 20)
2022年度秋学期 応用数学(解析) 第5回 微分方程式とは?変数分離形 (2022. 10. 20) 2022年度秋学期 応用数学(解析) 第5回 微分方程式とは?変数分離形 (2022. 10. 20)
2022年度秋学期 応用数学(解析) 第5回 微分方程式とは?変数分離形 (2022. 10. 20)
Akira Asano
?
第8章 カ?ウス過程回帰による異常検知
第8章 カ?ウス過程回帰による異常検知第8章 カ?ウス過程回帰による異常検知
第8章 カ?ウス過程回帰による異常検知
Chika Inoshita
?
topology of musical data
topology of musical datatopology of musical data
topology of musical data
Tatsuki SHIMIZU
?
JSIAM_2019_9_4
JSIAM_2019_9_4JSIAM_2019_9_4
JSIAM_2019_9_4
KoutaFunakoshi
?
公開鍵暗号2: NP困難性
公開鍵暗号2: NP困難性公開鍵暗号2: NP困難性
公開鍵暗号2: NP困難性
Joe Suzuki
?
主成分分析
主成分分析主成分分析
主成分分析
貴之 八木
?
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
hirokazutanaka
?
2022年度秋学期 応用数学(解析) 第7回 2階線形微分方程式(1) (2022. 11. 10)
2022年度秋学期 応用数学(解析) 第7回 2階線形微分方程式(1) (2022. 11. 10) 2022年度秋学期 応用数学(解析) 第7回 2階線形微分方程式(1) (2022. 11. 10)
2022年度秋学期 応用数学(解析) 第7回 2階線形微分方程式(1) (2022. 11. 10)
Akira Asano
?
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
?
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
t2tarumi
?
ユークリッド距离以外の距离で教师无しクラスタリング
ユークリッド距离以外の距离で教师无しクラスタリングユークリッド距离以外の距离で教师无しクラスタリング
ユークリッド距离以外の距离で教师无しクラスタリング
Maruyama Tetsutaro
?
NN, CNN, and Image Analysis
NN, CNN, and Image AnalysisNN, CNN, and Image Analysis
NN, CNN, and Image Analysis
Yuki Shimada
?
パターン认识と机械学习6章(カーネル法)
パターン认识と机械学习6章(カーネル法)パターン认识と机械学习6章(カーネル法)
パターン认识と机械学习6章(カーネル法)
Yukara Ikemiya
?
社内機械学習勉強会 #5
社内機械学習勉強会 #5社内機械学習勉強会 #5
社内機械学習勉強会 #5
shingo suzuki
?
2022年度秋学期 応用数学(解析) 第5回 微分方程式とは?変数分離形 (2022. 10. 20)
2022年度秋学期 応用数学(解析) 第5回 微分方程式とは?変数分離形 (2022. 10. 20) 2022年度秋学期 応用数学(解析) 第5回 微分方程式とは?変数分離形 (2022. 10. 20)
2022年度秋学期 応用数学(解析) 第5回 微分方程式とは?変数分離形 (2022. 10. 20)
Akira Asano
?
第8章 カ?ウス過程回帰による異常検知
第8章 カ?ウス過程回帰による異常検知第8章 カ?ウス過程回帰による異常検知
第8章 カ?ウス過程回帰による異常検知
Chika Inoshita
?
公開鍵暗号2: NP困難性
公開鍵暗号2: NP困難性公開鍵暗号2: NP困難性
公開鍵暗号2: NP困難性
Joe Suzuki
?
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
hirokazutanaka
?

Recently uploaded (10)

GAM E.pptx
GAM                                        E.pptxGAM                                        E.pptx
GAM E.pptx
phuyquang74
?
ALPHABET FLASHCARD FOR PRESCHOOL TO KINDERGARTEN LEARNERS.docx
ALPHABET FLASHCARD FOR PRESCHOOL TO KINDERGARTEN LEARNERS.docxALPHABET FLASHCARD FOR PRESCHOOL TO KINDERGARTEN LEARNERS.docx
ALPHABET FLASHCARD FOR PRESCHOOL TO KINDERGARTEN LEARNERS.docx
ruthbarnuevo1
?
Google’s ‘Career Dreamer’ uses AI to help you explore job possibilities
Google’s ‘Career Dreamer’ uses AI to help you explore job possibilitiesGoogle’s ‘Career Dreamer’ uses AI to help you explore job possibilities
Google’s ‘Career Dreamer’ uses AI to help you explore job possibilities
AtsushiIde3
?
中毒診療ことはし?め 【ADVANCED2024】 by よしか病院 佐々木弥生
中毒診療ことはし?め 【ADVANCED2024】 by よしか病院 佐々木弥生中毒診療ことはし?め 【ADVANCED2024】 by よしか病院 佐々木弥生
中毒診療ことはし?め 【ADVANCED2024】 by よしか病院 佐々木弥生
NEURALGPNETWORK
?
表出と抑制の二面性効果 ?手書きの心理的影響に関するRCT研究(青山学院大学経営学部服部ゼミ)
表出と抑制の二面性効果 ?手書きの心理的影響に関するRCT研究(青山学院大学経営学部服部ゼミ)表出と抑制の二面性効果 ?手書きの心理的影響に関するRCT研究(青山学院大学経営学部服部ゼミ)
表出と抑制の二面性効果 ?手書きの心理的影響に関するRCT研究(青山学院大学経営学部服部ゼミ)
KeisukeHattori1
?
脳神経内科:専攻医の陥るpitfallとその解決法 【ADVANCED2024】
脳神経内科:専攻医の陥るpitfallとその解決法 【ADVANCED2024】脳神経内科:専攻医の陥るpitfallとその解決法 【ADVANCED2024】
脳神経内科:専攻医の陥るpitfallとその解決法 【ADVANCED2024】
NEURALGPNETWORK
?
Introduction to Local Image Features....
Introduction to Local Image Features....Introduction to Local Image Features....
Introduction to Local Image Features....
YiTingTseng6
?
タワーマンション効果 ?高所からの眺望が、人の心理状態に及ぼす影響を探るRCTs
タワーマンション効果 ?高所からの眺望が、人の心理状態に及ぼす影響を探るRCTsタワーマンション効果 ?高所からの眺望が、人の心理状態に及ぼす影響を探るRCTs
タワーマンション効果 ?高所からの眺望が、人の心理状態に及ぼす影響を探るRCTs
KeisukeHattori1
?
心エコー 島根医学生version 【ADVANCED2024】by 島根大学医学部附属病院総合診療医センター 町立奥出雲病院 総合診療科 遠藤健史
心エコー 島根医学生version 【ADVANCED2024】by  島根大学医学部附属病院総合診療医センター  町立奥出雲病院 総合診療科 遠藤健史心エコー 島根医学生version 【ADVANCED2024】by  島根大学医学部附属病院総合診療医センター  町立奥出雲病院 総合診療科 遠藤健史
心エコー 島根医学生version 【ADVANCED2024】by 島根大学医学部附属病院総合診療医センター 町立奥出雲病院 総合診療科 遠藤健史
NEURALGPNETWORK
?
cardiom??????????????????????yopathy .pdf
cardiom??????????????????????yopathy .pdfcardiom??????????????????????yopathy .pdf
cardiom??????????????????????yopathy .pdf
ssuser16d694
?
ALPHABET FLASHCARD FOR PRESCHOOL TO KINDERGARTEN LEARNERS.docx
ALPHABET FLASHCARD FOR PRESCHOOL TO KINDERGARTEN LEARNERS.docxALPHABET FLASHCARD FOR PRESCHOOL TO KINDERGARTEN LEARNERS.docx
ALPHABET FLASHCARD FOR PRESCHOOL TO KINDERGARTEN LEARNERS.docx
ruthbarnuevo1
?
Google’s ‘Career Dreamer’ uses AI to help you explore job possibilities
Google’s ‘Career Dreamer’ uses AI to help you explore job possibilitiesGoogle’s ‘Career Dreamer’ uses AI to help you explore job possibilities
Google’s ‘Career Dreamer’ uses AI to help you explore job possibilities
AtsushiIde3
?
中毒診療ことはし?め 【ADVANCED2024】 by よしか病院 佐々木弥生
中毒診療ことはし?め 【ADVANCED2024】 by よしか病院 佐々木弥生中毒診療ことはし?め 【ADVANCED2024】 by よしか病院 佐々木弥生
中毒診療ことはし?め 【ADVANCED2024】 by よしか病院 佐々木弥生
NEURALGPNETWORK
?
表出と抑制の二面性効果 ?手書きの心理的影響に関するRCT研究(青山学院大学経営学部服部ゼミ)
表出と抑制の二面性効果 ?手書きの心理的影響に関するRCT研究(青山学院大学経営学部服部ゼミ)表出と抑制の二面性効果 ?手書きの心理的影響に関するRCT研究(青山学院大学経営学部服部ゼミ)
表出と抑制の二面性効果 ?手書きの心理的影響に関するRCT研究(青山学院大学経営学部服部ゼミ)
KeisukeHattori1
?
脳神経内科:専攻医の陥るpitfallとその解決法 【ADVANCED2024】
脳神経内科:専攻医の陥るpitfallとその解決法 【ADVANCED2024】脳神経内科:専攻医の陥るpitfallとその解決法 【ADVANCED2024】
脳神経内科:専攻医の陥るpitfallとその解決法 【ADVANCED2024】
NEURALGPNETWORK
?
Introduction to Local Image Features....
Introduction to Local Image Features....Introduction to Local Image Features....
Introduction to Local Image Features....
YiTingTseng6
?
タワーマンション効果 ?高所からの眺望が、人の心理状態に及ぼす影響を探るRCTs
タワーマンション効果 ?高所からの眺望が、人の心理状態に及ぼす影響を探るRCTsタワーマンション効果 ?高所からの眺望が、人の心理状態に及ぼす影響を探るRCTs
タワーマンション効果 ?高所からの眺望が、人の心理状態に及ぼす影響を探るRCTs
KeisukeHattori1
?
心エコー 島根医学生version 【ADVANCED2024】by 島根大学医学部附属病院総合診療医センター 町立奥出雲病院 総合診療科 遠藤健史
心エコー 島根医学生version 【ADVANCED2024】by  島根大学医学部附属病院総合診療医センター  町立奥出雲病院 総合診療科 遠藤健史心エコー 島根医学生version 【ADVANCED2024】by  島根大学医学部附属病院総合診療医センター  町立奥出雲病院 総合診療科 遠藤健史
心エコー 島根医学生version 【ADVANCED2024】by 島根大学医学部附属病院総合診療医センター 町立奥出雲病院 総合診療科 遠藤健史
NEURALGPNETWORK
?
cardiom??????????????????????yopathy .pdf
cardiom??????????????????????yopathy .pdfcardiom??????????????????????yopathy .pdf
cardiom??????????????????????yopathy .pdf
ssuser16d694
?

パターン認識第9章 学習ベクトル量子化

  • 1. 学习ベクトルの量子化 東京大学 三好雄也 1
  • 3. 量子化とは ? 量子化(Quantization) ? ある連続量を、データ量削減のために、最も近い不連続値(代表ベクト ル、セントロイド)に置き換える(近似、情報圧縮)すること。(精度は落 ちます。) ? 画像圧縮に用いられたりするようです。 3
  • 4. 学习ベクトルの量子化のイメージ 1 ? 入力データを代表ベクトルによって分割近似するという点で はk-meansと目的を同じくする。 ? 入力データに近い代表ベクトルによって判別を行う点ではk- 近傍法と関連がある。 ? 何はともあれ、代表ベクトルをいかに配置するかが鍵 代表ベクトルによる 入力データとラベル 入力空間の分割 4
  • 5. 学习ベクトルの量子化のイメージ 2 ? 入力データに近い代表ベクトルによって判別を行う点ではk- 近傍法と関連がある。 代表ベクトルによる 入力データとラベル 入力空間の分割 5
  • 6. 学习ベクトルの量子化の学習プロセス 代表データの初期値の決定プロセス 1. 学習データをk-近傍法によって判別 2. 判別の誤りのないデータからランダムで選ぶ 学習プロセス 1. 時刻tにおいて1つのデータ(テスト点)を選択 2. 代表ベクトルの更新 ? 時刻tで選ばれたデータ (x(t),y(t)) ? x:特徴量、y:ラベル ? 時刻tにおける代表データ ?1 (t) ? 代表データのラベル ? ? (t), i=1,2,…k 6
  • 7. 学習アルゴリズム ? 学習アルゴリズムとしては以下のものがある 1. LVQ1 2. LVQ2.1 3. LVQ3 4. OLVQ1(Optimized-learning rate LVQ1) 7
  • 8. LVQ1 -1 ? テスト点(x(t),y(t))が入力される ? テスト点から最も近い代表ベクトルを c とする c = ?????? ? ? ? ? ? ? このとき y(t)= ? ? (t) → ? ? (t+1) = ? ? (t) + α(t)(x(t)- ? ? (t)) y(t)≠ ? ? (t) → ? ? (t+1) = ? ? (t)-α(t)(x(t)- ? ? (t)) ただし、 0 < α(t) < 1 i≠c → ? ? (t+1) = ? ? (t) 8
  • 9. LVQ1 -2 ? y(t)= ? ? (t) → ? ? (t)をx(t)に近づける ? y(t)≠ ? ? (t) → ? ? (t)をx(t)から遠ざける 9
  • 10. LVQ2.1 -1 ? LVQ1は1つの代表ベクトルしか更新しなかったが、2つの代表 ベクトルに対して更新を行うアルゴリズムがLVQ2.1 更新の対象 ? ラベルが違うがテスト点から最も近い代表ベクトル ? ? (t) ? ラベルが同じでテスト点から最も近い代表ベクトル ? ? (t) 10
  • 11. LVQ2.1 -2 1?? ?? ? ? ? s = とし、min( , ) > s なら、以下の更新を行う 1+? ? ? ?? ? ? (t+1) = ? ? (t)-α(t)(x(t)- ? ? (t)) → 遠ざける ? ? (t+1) = ? ? (t) + α(t)(x(t)- ? ? (t)) → 近づける ?? 1?? 左図の場合、 >s= となる ?? ?? 1+? ?? ?? ?? ?? ?? min( , )≦1であり、 ? ? と? ? が近 ?? ?? いほど、更新が行われやすくなる。 11
  • 12. LVQ3 ? LVQ1とLVQ2.1を融合したようなもの ? テスト点から近い2つ代表ベクトルを順に? ? (t), ? ? (t)とし、以 下のどちらかの条件を満たした場合に更新を行う。 1. li (t) , lj (t)がともにy(t)と同じ ?? (t+1)= ?? (t)+εα(t)(x(t)-?? (t)) ,h=i,j →近づける 2. li (t)≠y(t), lj (t)=y(t)、かつLVQ2.1と同じ条件(テスト点が窓 に入る)の場合 ? ? (t+1) = ? ? (t)-α(t)(x(t)- ? ? (t)) → 遠ざける ? ? (t+1) = ? ? (t) + α(t)(x(t)- ? ? (t)) → 近づける 12
  • 13. OLVQ1 -1 ? LVQ1における α(t) の最適化 → 学習の収束特性の改善 ? y(t)とli (t)との関係を示す変数を導入する +1, i=c かつ y(t) = li (t) ?i (t) = -1, i=c かつ y(t) ≠ li (t) 0, i ≠ c y(t)= ? ? (t) → ? ? (t+1) = ? ? (t) + α(t)(x(t)- ? ? (t)) y(t)≠ ? ? (t) → ? ? (t+1) = ? ? (t)-α(t)(x(t)- ? ? (t)) i ≠ c → ? ? (t+1) = ? ? (t) ? mi (t+1) = mi (t) + ?i (t)αi (t)(x(t)- ? ? (t)) 13
  • 14. OLVQ1 -2 mi (t+1) = mi (t) + ?i (t)αi (t)(x(t)- ? ? (t)) = (1-?i (t)αi (t)) ? ? (t) + ?i (t)αi (t)x(t) さらに展開していくと、 mi (t+1) = (1-?i (t)αi (t))(1-? ? (t-1)αi (t-1))? ? (t) + (1-?i (t)αi (t))? ? (t-1)αi (t-1)x(t-1) + ?i (t)αi (t) x(t) ?i (t)?i (t-1)=0のとき、 x(t-1) と x(t) の係数の絶対値が等し いとし、さらに、 ?i =1, 0< α <1 を考慮すると、最終的に αi(??1) αi (?) = 1+si (?)αi (??1) 14
  • 15. 問題点 1. 初期値依存 2. 学習データによる学習の順番にも結果が依存する 15
  • 16. 学習ベクトル -入力データ in R library(class) ; library(mlbench) dim <- 2 # 入力空間の次元 ; n <- 300 # 学習データ数 smpl <- mlbench.corners(n, d=dim, sd=0.25) x <- smpl$x ; y <- smpl$classes size <- 8 # 代表ベクトルの数 ; k <- 1 # 初期化 cd <- lvqinit(x,y, size=size, k=k) ; cd3 <- lvq3(x,y,cd) # 学習前後の判別境界 gsize <- 100 # グリッドのサイズ x1 <- seq(min(x[,1]), max(x[,1]), length=gsize) x2 <- seq(min(x[,2]), max(x[,2]), length=gsize) xtest <- as.matrix(expand.grid(x1,x2)) yest <- lvqtest(cd, xtest) yest3 <- lvqtest(cd3, xtest) cntr <- matrix(match(yest, levels(factor(yest))), gsize, gsize) cntr3 <- matrix(match(yest3, levels(factor(yest3))), gsize, gsize) plot(x, col=y, pch=20+as.numeric(y), xlab="x1", ylab="x2", main="Initial Codebook") # 代表ベクトル points(cd3$x, col=cd3$cl, bg=cd$cl, pch=20+as.numeric(cd$cl),cex=2) 16
  • 17. 学習ベクトル -学習前と学習後 # 学習前の境界を表示 # 学習後 for(i in 1:max(cntr)) contour(x1, x2, cntr==i, plot(x, col=y, pch=20+as.numeric(y), xlab="x1", levels=0.5, lwd=2, lty=1, drawlabels=F, add=TRUE) ylab="x2", main="LVQ3") points(cd3$x, col=cd3$cl, bg=cd$cl, pch=20+as.numeric(cd$cl),cex=2) for(i in 1:max(cntr3))contour(x1,x2,cntr==i,levels=0.5,l 17 wd=2,lty=1, drawlabels=F, add=TRUE)