ICML2015読み会:Optimal and Adaptive Algorithms for Online Boosting
- 2. 論文概要
Optimal and Adaptive Algorithms for Online Boosting (ICML2015 Best Paper)
Alina Beygelzimer, Satyen Kale, and Haipeng Luo (Yahoo Lab & プリンストン大)
オンラインのブースティング手法を2つ提案する.
? 理論上最適な手法
? Adaptive な手法
選んだ理由: 理論寄りの論文で ICML の Best paper に選ばれるようなものが
どんなものか知りたかったため
なお解析部分は準備する時間がなかったのでほとんど説明しません…
- 9. オンラインブースティング
基本的には弱い学習器ごとの重み α(t, i) を逐次管理していく
重点サンプリング:
各学習器の update 時に,ある確率 p(t, i) でしか訓練データを渡さないようにする
アルゴリズム:
各 t = 1,…,T について:
? 予測 = (Σi α(t, i)?学習器i(xt) )の符号
? 各学習器と α を update
(xi, yi)
p(t, i)
1 - p(t, i)
- 10. 提案手法
? Online BBM (Boost-By-Majority)
?(ある常識的な条件下で) N, T が共に最適なオンラインブースティング法
? AdaBoost. OL
?弱い学習器の精度 γ を入力に要求しないアルゴリズム
?弱い学習器の性能がばらついてる場合でも上手く処理できる
提案手法
既存手法
弱い学習器 サンプル数
- 11. 提案手法(Optimal な方)
大胆にも,α = 1 にセットする.
解析のふんいき
次のポテンシャル関数 Φi(s) を考える(唐突?)
ここで p(t, i) をこのポテンシャル関数を使って決める(式が少しややこしいので略)と,
0/1 ロスを以下のように抑えられる
アルゴリズム(再掲):
各 t = 1,…,T について:
? 予測 = (Σi α(t, i)?学習器i(xt) )の符号
? 各学習器と α を update
p(t, i) に従い重点サンプリングする
Φをいい感じに設計すると
この項が小さくなることが
言える