狠狠撸
Submit Search
SVM
0 likes
1,082 views
Yuki Nakayama
1 of 23
Download now
Download to read offline
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
Ad
Recommended
PPTX
SVM
Yuki Nakayama
?
PDF
サポートベクトルマシン入门
Wakamatz
?
PPTX
クラシックな機械学習の入門 5. サポートベクターマシン
Hiroshi Nakagawa
?
PDF
Infinite SVM [改] - ICML 2011 読み会
Shuyo Nakatani
?
PDF
Infinite SVM - ICML 2011 読み会
Shuyo Nakatani
?
PDF
PRML chapter7
Takahiro (Poly) Horikawa
?
PDF
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
?
PDF
Prml07
Tsukasa Fukunaga
?
PDF
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
?
PDF
クラシックな機械学習の入門 3. 線形回帰および識別
Hiroshi Nakagawa
?
PDF
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
?
PDF
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
sleepy_yoshi
?
PDF
はじめてのパターン认识8章サポートベクトルマシン
NobuyukiTakayasu
?
PDF
パターン認識 05 ロジスティック回帰
sleipnir002
?
ZIP
今さら闻けないカーネル法とサポートベクターマシン
Shinya Shimizu
?
PPT
K040 確率分布とchi2分布
t2tarumi
?
PDF
PRML 1.6 情報理論
sleepy_yoshi
?
PDF
はじめてのパターン认识8章 サポートベクトルマシン
NobuyukiTakayasu
?
PPT
050 確率と確率分布
t2tarumi
?
PDF
シンギュラリティを知らずに机械学习を语るな
hoxo_m
?
PDF
8.4 グラフィカルモデルによる推論
sleepy_yoshi
?
PDF
低ランク行列补完のためのマトロイド理论
ryotat
?
PDF
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
Hiroshi Nakagawa
?
PDF
颁谤蹿と素性テンプレート
Kei Uchiumi
?
PDF
确率论基础
hoxo_m
?
PDF
経験过程
hoxo_m
?
PPT
6 Info Theory
melvincabatuan
?
PDF
パターン认识と机械学习6章(カーネル法)
Yukara Ikemiya
?
PPTX
搁て?学ふ?テ?ータサイエンス第13章(ミニマックス确率マシン)
Daisuke Yoneoka
?
PDF
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
?
More Related Content
What's hot
(20)
PDF
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
?
PDF
クラシックな機械学習の入門 3. 線形回帰および識別
Hiroshi Nakagawa
?
PDF
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
?
PDF
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
sleepy_yoshi
?
PDF
はじめてのパターン认识8章サポートベクトルマシン
NobuyukiTakayasu
?
PDF
パターン認識 05 ロジスティック回帰
sleipnir002
?
ZIP
今さら闻けないカーネル法とサポートベクターマシン
Shinya Shimizu
?
PPT
K040 確率分布とchi2分布
t2tarumi
?
PDF
PRML 1.6 情報理論
sleepy_yoshi
?
PDF
はじめてのパターン认识8章 サポートベクトルマシン
NobuyukiTakayasu
?
PPT
050 確率と確率分布
t2tarumi
?
PDF
シンギュラリティを知らずに机械学习を语るな
hoxo_m
?
PDF
8.4 グラフィカルモデルによる推論
sleepy_yoshi
?
PDF
低ランク行列补完のためのマトロイド理论
ryotat
?
PDF
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
Hiroshi Nakagawa
?
PDF
颁谤蹿と素性テンプレート
Kei Uchiumi
?
PDF
确率论基础
hoxo_m
?
PDF
経験过程
hoxo_m
?
PPT
6 Info Theory
melvincabatuan
?
PDF
パターン认识と机械学习6章(カーネル法)
Yukara Ikemiya
?
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
?
クラシックな機械学習の入門 3. 線形回帰および識別
Hiroshi Nakagawa
?
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
?
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
sleepy_yoshi
?
はじめてのパターン认识8章サポートベクトルマシン
NobuyukiTakayasu
?
パターン認識 05 ロジスティック回帰
sleipnir002
?
今さら闻けないカーネル法とサポートベクターマシン
Shinya Shimizu
?
K040 確率分布とchi2分布
t2tarumi
?
PRML 1.6 情報理論
sleepy_yoshi
?
はじめてのパターン认识8章 サポートベクトルマシン
NobuyukiTakayasu
?
050 確率と確率分布
t2tarumi
?
シンギュラリティを知らずに机械学习を语るな
hoxo_m
?
8.4 グラフィカルモデルによる推論
sleepy_yoshi
?
低ランク行列补完のためのマトロイド理论
ryotat
?
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
Hiroshi Nakagawa
?
颁谤蹿と素性テンプレート
Kei Uchiumi
?
确率论基础
hoxo_m
?
経験过程
hoxo_m
?
6 Info Theory
melvincabatuan
?
パターン认识と机械学习6章(カーネル法)
Yukara Ikemiya
?
Similar to SVM
(20)
PPTX
搁て?学ふ?テ?ータサイエンス第13章(ミニマックス确率マシン)
Daisuke Yoneoka
?
PDF
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
?
PDF
双対性
Yoichi Iwata
?
PDF
自然言语処理のための机械学习入门1章
Hiroki Mizukami
?
PDF
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
hirokazutanaka
?
PDF
PRML復々習レーン#3 3.1.3-3.1.5
sleepy_yoshi
?
PPTX
W8PRML5.1-5.3
Masahito Ohue
?
PPTX
Prml 1.3~1.6 ver3
Toshihiko Iio
?
PDF
Casual learning machine learning with_excel_no4
KazuhiroSato8
?
PDF
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
?
PDF
Incremental
Naotaka Yamada
?
PDF
関数の最小値を求めることから机械学习へ
Hiro H.
?
PDF
PRML10-draft1002
Toshiyuki Shimono
?
PDF
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
Taiji Suzuki
?
PDF
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
Takahiro (Poly) Horikawa
?
PPTX
PRML Chapter 5
Masahito Ohue
?
PDF
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
hirokazutanaka
?
PDF
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
?
PDF
データ解析3 最適化の復習
Hirotaka Hachiya
?
PDF
线形识别モデル
貴之 八木
?
搁て?学ふ?テ?ータサイエンス第13章(ミニマックス确率マシン)
Daisuke Yoneoka
?
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
?
双対性
Yoichi Iwata
?
自然言语処理のための机械学习入门1章
Hiroki Mizukami
?
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
hirokazutanaka
?
PRML復々習レーン#3 3.1.3-3.1.5
sleepy_yoshi
?
W8PRML5.1-5.3
Masahito Ohue
?
Prml 1.3~1.6 ver3
Toshihiko Iio
?
Casual learning machine learning with_excel_no4
KazuhiroSato8
?
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
?
Incremental
Naotaka Yamada
?
関数の最小値を求めることから机械学习へ
Hiro H.
?
PRML10-draft1002
Toshiyuki Shimono
?
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
Taiji Suzuki
?
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
Takahiro (Poly) Horikawa
?
PRML Chapter 5
Masahito Ohue
?
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
hirokazutanaka
?
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
?
データ解析3 最適化の復習
Hirotaka Hachiya
?
线形识别モデル
貴之 八木
?
Ad
SVM
1.
厂痴惭勉强会(中山)
2.
SVM(Support Vector Machine)とは ??
教師あり学習の手法 –? 2クラスのパターン識別を行う手法 –? 未学習データに対して識別能力が高い(汎化能力) x2 ?? 線形二値分類器 ?? 非線形二値分類器 x1 2
3.
SVM(Support Vector Machine
)とは ?? 二値分類器 –? 学習データD={(d1,y1), (d2,y2), (d3,y3), …,(d|D|,y|D|)} di=(x1,x2):学習サンプル yi:クラスラベル, Y?yi, Y={1,-1} 2次元の例 x2 正クラス 分離超平面 N-1次元 の図形 x1 負クラス 3
4.
SVMの方針(1) ?? 線形分類器を線形方程式であらわす. ?? 超平面の定式化
–? f(x) = w?x-b = 0を満たす点xの集合 x2 正クラス f(x)>0 x1 負クラス f(x)<0 良い超平面を構築するためにwとbを調節 4
5.
厂痴惭の方针(2)
良い超平面を構築するとは?? ?? マージン最大化 –? どちらのクラスからもなるべく遠い位置で分ける –? マージン:最も近い訓練事例への距離 x2 正クラス f(x)>0 サポート ベクトル x1 負クラス 5 f(x)<0
6.
マージン最大化(1) ?? マージンを定式化
正クラス H+ –? 正例の場合を考えてみる x2 f(x)>0 –? 右図よりマージンdは点線部分 x+ H- x* w x- 負クラス f(x)<0 x1 H+である サポートベクトルではないデータ 6
7.
マージン最大化(2) ?? マージン最大化問題
H+ x2 目的関数 正クラス 大きさ?分数 f(x)>0 めんどい x+ 制約条件 x* w x- 正例 まとめる 負クラス f(x)<0 負例 不等式制約付2次計画問題 x1 ?? 凸2次計画問題で表す –? 目的関数が2次関数 局所最適解に陥らない –? 制約条件が1次関数 7
8.
どうやって最適解を求めるか ?? 考えられる方法 –?
x1で偏微分して0とおけば –? 必ずしもx2をx1で表現できるとは限らない ラグランジュの未定乗数法を使おう 8
9.
ラグランジュの未定乗数法 ?? 解法 –?
変数λを導入し,ラグランジュ関数L(x,λ)を定義する –? 関数L(x,λ)のxに関する偏微分が0となり,かつ与えられ た制約が満たされる時,最適な解が得られる. 9
10.
计算例(等式制约)
停留点 10
11.
ラグランジュの乗数法は何をしてるのか x2
x2 B B A A x1 x1 B地点の標高が最適であるとき B地点の標高が最適でないとき ?? 交わらず制約式がある値で接している点こそが最 適値 11
12.
ラグランジュの乗数法は何をしてるのか ?? ラグランジュ関数を用いた解法をもう一度見てみる
あるxでのf(x)の接線に対する法線ベクトルが制約式 g(x)に対する法線ベクトルの整数倍で表せられるxが ① ② 最適解となる x2 x2 ② ② B B A A ① ① x1 12 B地点の標高が最適であるとき B地点の標高が最適でないとき
13.
不等式制約の場合:制約条件の導出(1) ?? 制約が緩和される
–? 条件を見つける(何かしらで厳しく) ?? g(x)>0では –? C地点が最適解である? x2 B A g(x)>0 C x1 13
14.
不等式制約の場合:制約条件の導出(2) ?? g(x)=0では
–? 最大化するためには?f(x)の勾配が ?g(x)の勾配と逆向きである必要がある ① ② x2 g(x)>0 ② B A ?? 最小化するためは ① –? 上式の左辺の符号を反転 B地点の標高が最適であるとき 14
15.
不等式制約の場合:制約条件の導出(3) ?? g(x)≧0の制約下で得られる条件
KKT条件 ?? x, λが以上の条件を満たすときxがある問題の 最適解となる(ことが知られている) 15
16.
不等式制約:主問題と双対問題(1) ?? 先ほどの問題の不等式制約Ver
主問題 –? λに関する最小化問題に置き換える 双対問題 16
17.
不等式制約:主問題と双対問題(2) ?? λを変数とする関数で表せる ?? ラグランジュ関数に代入 ??
λに関する最適化問題(双対問題)に置き換えること で主問題を扱いやすくする. 制約条件は のみ 17
18.
マージン最大化へ:主问题から双対问题
主問題 ?? ラグランジュ関数の導入 最小化なので- ?? (2)を元のラグランジュ関数に代入 18
19.
マージン最大化へ:双対問題を解く ?? (3)を使って整理すると
双対問題 ?? αi以外は既知, ?? 制約条件を満たしラグランジュ関数が最大となるαi を求める 主問題から双対問題に持ってこれた! 19
20.
Support Vectorと呼ばれる所以 ?? KKT条件から
KKT条件 ?? xがサポートベクトルではない場合 ?? xがサポートベクトルである場合 αi≧0であるベクトルだけを考慮(支持:Support)する 20
21.
SVMの計算例(1) ?? 学習データD={(d1,-1), (d2,-1),(d3,1)}
d1=(0,1), d2=(1,1) d3=(2,1) x2 正クラス ?? まずは双対問題を解く 負クラス (0,1) (1,1) (2,1) x1 21
22.
SVMの計算量(2) ?? 次はサポートベクトルのみ(α2, α3のみを考える) ??
主問題へ 22
23.
SVMの計算例(3) ?? 学習器に新しいデータx=(2,0)が来たら?
x2 超平面 正クラス (1,1) ?? 得られた超平面 (0,1) 負クラス (2,0) x1 23
Download