狠狠撸

狠狠撸Share a Scribd company logo
厂痴惭勉强会(中山)
SVM(Support Vector Machine)とは	
?? 教師あり学習の手法
 –? 2クラスのパターン識別を行う手法
 –? 未学習データに対して識別能力が高い(汎化能力)


                       x2	
?? 線形二値分類器

?? 非線形二値分類器
                                    x1	


                                           2
SVM(Support Vector Machine )とは	
?? 二値分類器
 –? 学習データD={(d1,y1), (d2,y2), (d3,y3), …,(d|D|,y|D|)}
 di=(x1,x2):学習サンプル
 yi:クラスラベル, Y?yi, Y={1,-1}	
2次元の例	
               x2	
            正クラス	
                                      分離超平面	
                                             N-1次元
                                             の図形	



                                      x1	


                                 負クラス	
                 3
SVMの方針(1)	
?? 線形分類器を線形方程式であらわす.

?? 超平面の定式化
 –? f(x) = w?x-b = 0を満たす点xの集合
                    x2	
         正クラス
         f(x)>0	




                                       x1	
                           負クラス
                            f(x)<0	



  良い超平面を構築するためにwとbを調節	
                       4
厂痴惭の方针(2)	
       良い超平面を構築するとは??	
                        	
?? マージン最大化
 –? どちらのクラスからもなるべく遠い位置で分ける
 –? マージン:最も近い訓練事例への距離	
                 x2	
      正クラス
      f(x)>0	




    サポート
    ベクトル	
                                     x1	

                             負クラス
                                            5	
                              f(x)<0
マージン最大化(1)	
?? マージンを定式化                                 正クラス                H+	
 –? 正例の場合を考えてみる                     x2	
                                            f(x)>0	

 –? 右図よりマージンdは点線部分
                             x+	
                                                                  H-	
                                     x*	
                              w	
                  x-	
                                                   負クラス
                                                     f(x)<0	

                                                                x1	




              H+である	

         サポートベクトルではないデータ	
                                         6
マージン最大化(2)	
?? マージン最大化問題                                                         H+	
                                                  x2	
     目的関数	
                               正クラス
              大きさ?分数
                                          f(x)>0	
               めんどい	
                                           x+	

     制約条件	
                                       x*	
                                            w	
          x-	
正例                まとめる                                   負クラス
                                                          f(x)<0	
負例
                         不等式制約付2次計画問題	
                              x1	




?? 凸2次計画問題で表す
 –? 目的関数が2次関数                       局所最適解に陥らない	
 –? 制約条件が1次関数
                                                                     7
どうやって最適解を求めるか	
?? 考えられる方法




 –? x1で偏微分して0とおけば



 –? 必ずしもx2をx1で表現できるとは限らない


    ラグランジュの未定乗数法を使おう	
      8
ラグランジュの未定乗数法	



?? 解法
 –? 変数λを導入し,ラグランジュ関数L(x,λ)を定義する



 –? 関数L(x,λ)のxに関する偏微分が0となり,かつ与えられ
    た制約が満たされる時,最適な解が得られる.	



                                  9
计算例(等式制约)	



	




                   停留点	




                           10
ラグランジュの乗数法は何をしてるのか	


x2	
                       x2	




                B	
                       B	
          A	
                       A	




                          x1	
                       x1	
       B地点の標高が最適であるとき	
           B地点の標高が最適でないとき	

?? 交わらず制約式がある値で接している点こそが最
   適値	
                  11
ラグランジュの乗数法は何をしてるのか	
?? ラグランジュ関数を用いた解法をもう一度見てみる

                                 あるxでのf(x)の接線に対する法線ベクトルが制約式
                                 g(x)に対する法線ベクトルの整数倍で表せられるxが
       ①	
           ②	
                    最適解となる	


x2	
                                    x2	

                                                                    ②	
                           ②	
                                B	
                   B	
             A	
                                  A	

             ①	
                                        ①	



                                 x1	
                                     12	
       B地点の標高が最適であるとき	
                        B地点の標高が最適でないとき
不等式制約の場合:制約条件の導出(1)	
?? 制約が緩和される
  –? 条件を見つける(何かしらで厳しく)
?? g(x)>0では
  –? C地点が最適解である?

         x2	




                      B	
                A	

                            g(x)>0	
                                              C	

                                       x1	
         13
不等式制約の場合:制約条件の導出(2)	
?? g(x)=0では
  –? 最大化するためには?f(x)の勾配が
  ?g(x)の勾配と逆向きである必要がある

     ①	
      ②	
                    x2	

                                         g(x)>0	
                                                    ②	
                                         B	
                             A	
?? 最小化するためは                        ①	

  –? 上式の左辺の符号を反転

                           B地点の標高が最適であるとき	
               14
不等式制約の場合:制約条件の導出(3)	
?? g(x)≧0の制約下で得られる条件



            KKT条件	



?? x, λが以上の条件を満たすときxがある問題の
 最適解となる(ことが知られている)



                             15
不等式制約:主問題と双対問題(1)	
?? 先ほどの問題の不等式制約Ver
                    主問題	




 –? λに関する最小化問題に置き換える	
         双対問題	


                            16
不等式制約:主問題と双対問題(2)	
?? λを変数とする関数で表せる

?? ラグランジュ関数に代入




?? λに関する最適化問題(双対問題)に置き換えること
   で主問題を扱いやすくする.

       制約条件は       のみ	
                          17
マージン最大化へ:主问题から双対问题	

                       主問題	



?? ラグランジュ関数の導入 
                   最小化なので-	




?? (2)を元のラグランジュ関数に代入


                               18
マージン最大化へ:双対問題を解く	
?? (3)を使って整理すると




                     双対問題	

?? αi以外は既知,
?? 制約条件を満たしラグランジュ関数が最大となるαi
   を求める
        主問題から双対問題に持ってこれた!	



                              19
Support Vectorと呼ばれる所以	
?? KKT条件から

                                      KKT条件	
?? xがサポートベクトルではない場合

?? xがサポートベクトルである場合

	


     αi≧0であるベクトルだけを考慮(支持:Support)する
                   	
                                           20
SVMの計算例(1)	
?? 学習データD={(d1,-1), (d2,-1),(d3,1)}
  d1=(0,1), d2=(1,1) d3=(2,1)            x2	
                                                            正クラス	

?? まずは双対問題を解く                         負クラス	




                                         (0,1)	
   (1,1)	
 (2,1)	

                                                                     x1	




                                                                 21
SVMの計算量(2)	
?? 次はサポートベクトルのみ(α2, α3のみを考える)




?? 主問題へ




                                22
SVMの計算例(3)	
?? 学習器に新しいデータx=(2,0)が来たら?


                  x2	
                              超平面	


                                      正クラス	
                            (1,1)	
?? 得られた超平面
                  (0,1)	
                  負クラス	
                                      (2,0)	
                                                x1	



                                           23
Ad

Recommended

PDF
サポートベクトルマシン入门
Wakamatz
?
PPTX
クラシックな機械学習の入門  5. サポートベクターマシン
Hiroshi Nakagawa
?
PDF
Infinite SVM [改] - ICML 2011 読み会
Shuyo Nakatani
?
PDF
Infinite SVM - ICML 2011 読み会
Shuyo Nakatani
?
PDF
PRML chapter7
Takahiro (Poly) Horikawa
?
PDF
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
?
PDF
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
?
PDF
クラシックな機械学習の入門 3. 線形回帰および識別
Hiroshi Nakagawa
?
PDF
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
?
PDF
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
sleepy_yoshi
?
PDF
はじめてのパターン认识8章サポートベクトルマシン
NobuyukiTakayasu
?
PDF
パターン認識 05 ロジスティック回帰
sleipnir002
?
ZIP
今さら闻けないカーネル法とサポートベクターマシン
Shinya Shimizu
?
PPT
K040 確率分布とchi2分布
t2tarumi
?
PDF
PRML 1.6 情報理論
sleepy_yoshi
?
PDF
はじめてのパターン认识8章 サポートベクトルマシン
NobuyukiTakayasu
?
PPT
050 確率と確率分布
t2tarumi
?
PDF
シンギュラリティを知らずに机械学习を语るな
hoxo_m
?
PDF
8.4 グラフィカルモデルによる推論
sleepy_yoshi
?
PDF
低ランク行列补完のためのマトロイド理论
ryotat
?
PDF
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
Hiroshi Nakagawa
?
PDF
颁谤蹿と素性テンプレート
Kei Uchiumi
?
PDF
确率论基础
hoxo_m
?
PDF
経験过程
hoxo_m
?
PPT
6 Info Theory
melvincabatuan
?
PDF
パターン认识と机械学习6章(カーネル法)
Yukara Ikemiya
?
PPTX
搁て?学ふ?テ?ータサイエンス第13章(ミニマックス确率マシン)
Daisuke Yoneoka
?
PDF
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
?

More Related Content

What's hot (20)

PDF
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
?
PDF
クラシックな機械学習の入門 3. 線形回帰および識別
Hiroshi Nakagawa
?
PDF
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
?
PDF
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
sleepy_yoshi
?
PDF
はじめてのパターン认识8章サポートベクトルマシン
NobuyukiTakayasu
?
PDF
パターン認識 05 ロジスティック回帰
sleipnir002
?
ZIP
今さら闻けないカーネル法とサポートベクターマシン
Shinya Shimizu
?
PPT
K040 確率分布とchi2分布
t2tarumi
?
PDF
PRML 1.6 情報理論
sleepy_yoshi
?
PDF
はじめてのパターン认识8章 サポートベクトルマシン
NobuyukiTakayasu
?
PPT
050 確率と確率分布
t2tarumi
?
PDF
シンギュラリティを知らずに机械学习を语るな
hoxo_m
?
PDF
8.4 グラフィカルモデルによる推論
sleepy_yoshi
?
PDF
低ランク行列补完のためのマトロイド理论
ryotat
?
PDF
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
Hiroshi Nakagawa
?
PDF
颁谤蹿と素性テンプレート
Kei Uchiumi
?
PDF
确率论基础
hoxo_m
?
PDF
経験过程
hoxo_m
?
PPT
6 Info Theory
melvincabatuan
?
PDF
パターン认识と机械学习6章(カーネル法)
Yukara Ikemiya
?
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
?
クラシックな機械学習の入門 3. 線形回帰および識別
Hiroshi Nakagawa
?
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
?
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
sleepy_yoshi
?
はじめてのパターン认识8章サポートベクトルマシン
NobuyukiTakayasu
?
パターン認識 05 ロジスティック回帰
sleipnir002
?
今さら闻けないカーネル法とサポートベクターマシン
Shinya Shimizu
?
K040 確率分布とchi2分布
t2tarumi
?
PRML 1.6 情報理論
sleepy_yoshi
?
はじめてのパターン认识8章 サポートベクトルマシン
NobuyukiTakayasu
?
050 確率と確率分布
t2tarumi
?
シンギュラリティを知らずに机械学习を语るな
hoxo_m
?
8.4 グラフィカルモデルによる推論
sleepy_yoshi
?
低ランク行列补完のためのマトロイド理论
ryotat
?
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
Hiroshi Nakagawa
?
颁谤蹿と素性テンプレート
Kei Uchiumi
?
确率论基础
hoxo_m
?
経験过程
hoxo_m
?
6 Info Theory
melvincabatuan
?
パターン认识と机械学习6章(カーネル法)
Yukara Ikemiya
?

Similar to SVM (20)

PPTX
搁て?学ふ?テ?ータサイエンス第13章(ミニマックス确率マシン)
Daisuke Yoneoka
?
PDF
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
?
PDF
双対性
Yoichi Iwata
?
PDF
自然言语処理のための机械学习入门1章
Hiroki Mizukami
?
PDF
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
hirokazutanaka
?
PDF
PRML復々習レーン#3 3.1.3-3.1.5
sleepy_yoshi
?
PPTX
W8PRML5.1-5.3
Masahito Ohue
?
PPTX
Prml 1.3~1.6 ver3
Toshihiko Iio
?
PDF
Casual learning machine learning with_excel_no4
KazuhiroSato8
?
PDF
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
?
PDF
Incremental
Naotaka Yamada
?
PDF
関数の最小値を求めることから机械学习へ
Hiro H.
?
PDF
PRML10-draft1002
Toshiyuki Shimono
?
PDF
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
Taiji Suzuki
?
PDF
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
Takahiro (Poly) Horikawa
?
PPTX
PRML Chapter 5
Masahito Ohue
?
PDF
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
hirokazutanaka
?
PDF
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
?
PDF
データ解析3 最適化の復習
Hirotaka Hachiya
?
PDF
线形识别モデル
貴之 八木
?
搁て?学ふ?テ?ータサイエンス第13章(ミニマックス确率マシン)
Daisuke Yoneoka
?
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
?
双対性
Yoichi Iwata
?
自然言语処理のための机械学习入门1章
Hiroki Mizukami
?
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
hirokazutanaka
?
PRML復々習レーン#3 3.1.3-3.1.5
sleepy_yoshi
?
W8PRML5.1-5.3
Masahito Ohue
?
Prml 1.3~1.6 ver3
Toshihiko Iio
?
Casual learning machine learning with_excel_no4
KazuhiroSato8
?
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
?
Incremental
Naotaka Yamada
?
関数の最小値を求めることから机械学习へ
Hiro H.
?
PRML10-draft1002
Toshiyuki Shimono
?
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
Taiji Suzuki
?
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
Takahiro (Poly) Horikawa
?
PRML Chapter 5
Masahito Ohue
?
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
hirokazutanaka
?
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
?
データ解析3 最適化の復習
Hirotaka Hachiya
?
线形识别モデル
貴之 八木
?
Ad

SVM