論文紹介「A Perspective View and Survey of Meta-Learning」
1. A Perspec)ve View and
Survey of Meta-Learning
R. Vilalta & Y. Drissi, Ar0?cial Intelligence Review, 2002.
紹介者:松井孝太(名古屋?)
matsui.k@med.nagoya-u.ac.jp
2020/11/21 昔の論?読み会
5. 素朴な「学習の観察」からの知?
? 全てのタスクの集合の中に「解けるタスク (Structured tasks)」と
「解けないタスク (Random tasks)」がある
? ある学習アルゴリズムが効率的に解けるのは,そのアルゴリズ
ムが埋め込むバイアスに適合する部分領域のタスクのみ
? バイアスが固定されている限り,領域外のタスクは解けない
全てのタスクの集合
Random tasks
Structured tasks
80 RICARDO VILALTA AND YOUSSEF DRISSI
Figure 1. Each learning algorithm covers a region of (structured) tasks favored by its bias.
Task T1 is best learned by algorithm LA, T2 is best learned by alogrithm LB, whereas T3 is
best learned by both LA and LB. Task T4 lies outside the scope of LA and LB.
be ascribed a low degree of (e.g. Kolmogorov) complexity (Li and Vitanyi
(1997)). The assumption is left unspeci?ed; we simply want to distinguish
between two sets of tasks: structured and random.
6. メタ学習の?標
? 学習アルゴリズム がなぜ領域 で?配的に振る舞えるのかを
学習する(以下の2つのパートに分解できる)
1. 領域 に含まれるタスクの性質を調べる
→ 何がアルゴリズム に適応的なのか
2. 学習アルゴリズム の性質(構成要素,それらの相互作?)を調べる
→ 何が を?配的たらしめているのか
? メタ学習の「解」は
? 各タスクに適当なアルゴリズムを選ぶガイドラインを与える
? 学習アルゴリズムをタスクの特性に適合させる?法を?す
? ?持ちの学習アルゴリズムの対象外なタスクを解くことができる
e.g. メタ学習の解によって複数のbase-learnerの予測を組み合わせる
→ いわゆるドメイン汎化(domain generalizaEon)
Figure 1. Each learning algorithm covers a region of (structured) tasks favored by its bias.
Task T1 is best learned by algorithm LA, T2 is best learned by alogrithm LB, whereas T3 is
best learned by both LA and LB. Task T4 lies outside the scope of LA and LB.
be ascribed a low degree of (e.g. Kolmogorov) complexity (Li and Vitanyi
(1997)). The assumption is left unspeci?ed; we simply want to distinguish
between two sets of tasks: structured and random.
3.1. Goals in Meta-Learning
One goal in meta-learning is to learn what causes L to dominate in region RL.
The problem can be decomposed in two parts: 1) determine the properties
of the tasks in RL that make L suitable for such region, and 2) determine
the properties of L (i.e. what are the components contained by algorithm L
and how they interact with each other) that contribute to dominate in RL.
A solution to the problem above would provide guidelines for choosing the
right learning algorithm on a particular task. As illustrated in Figure 1, each
task Ti may lie inside or outside the region that favors the bias embedded
by a learning algorithm L. In Figure 1, task T1 is best learned by algorithm
7. ? 学習した仮説や学習アルゴリズムが採?した帰納バイアスの質
を評価する?法を定義する必要がある
? 「メタ特徴」を使ってドメイン*を特徴づけたい
82 RICARDO VILALTA AND YOUSSEF DRISSI
Figure 2. A ?ow diagram of a self-adaptive learner.
whereas the bias is now selected dynamically, the meta-learner is not self-
adaptive and employs a ?xed form of bias. Clearly the meta-learner can be
seen as a learning algorithm too, but lacking the adaptability ascribed to the
base learner. Ideally we would like the meta-learner to be self-adaptive (i.e.
to improve through experience). One solution could be to continue with the
same logical fashion as in Figure 2, and de?ne a meta-meta-learner helping
the meta-learner improve through experience. The problem, however, does
*ドメイン:サンプル空間とデータ?成分布の組
??適応的学習 (Self-Adap+ve Learning)
[Vilalta, 2001]
8. ? SALでは帰納バイアスは動的に選択されるが,meta-learnerはfix
された(?段階メタな)帰納バイアスを使って学習アルゴリズ
ムを導出する
→ 伝統的MLの学習アルゴリズム的な働き
? meta-meta-learnerを導?すればmeta-learnerの使う帰納バイアス
も動的に選択できる(がどこで?める?)
82 RICARDO VILALTA AND YOUSSEF DRISSI
Figure 2. A ?ow diagram of a self-adaptive learner.
whereas the bias is now selected dynamically, the meta-learner is not self-
adaptive and employs a ?xed form of bias. Clearly the meta-learner can be
seen as a learning algorithm too, but lacking the adaptability ascribed to the
base learner. Ideally we would like the meta-learner to be self-adaptive (i.e.
to improve through experience). One solution could be to continue with the
same logical fashion as in Figure 2, and de?ne a meta-meta-learner helping
the meta-learner improve through experience. The problem, however, does
?成されたドメインに
関するメタ特徴(ドメイン知識)
がメタ帰納バイアスになる
base-learning
全体としてbase-learningを?う際の
帰納バイアスは動的に選択される
??適応的学習 (Self-Adap+ve Learning)
[Vilalta, 2001]
9. A Survey of Meta-Learning
? A meta-learner of base-learners
? stacked generalization(スタッキング)
? Dynamic selection of bias
? 複数の仮説集合を探索
? 特徴を追加?削減して仮説集合の?きさを変える
? メタルールによって直接仮説をフィルタリングする
? Meta-rules matching domains with algorithm performance
→ 学習アルゴリズムとそれを動かすドメインを関連付ける?法の探索
1. ドメインを特徴づけるメタ特徴とそのドメインにおけるある学習ア
ルゴリズムの性能 (予測精度, 計算複雑度, 表現能?…) の組からなるメ
タドメインを定義
2. メタドメインを学習データにして,ある学習アルゴリズムがあるド
メインで最優であるとき,その条件を発?するルールを学習
11. A Survey of Meta-Learning
? Finding regions in the feature space and meta-feature space
→ ドメインではなくテスト事例毎に学習アルゴリズムを選ぶ
? Landmarking
? ドメインを特徴づける役割の学習アルゴリズム集合 (landmarkers) とタ
スクの仮説を学習する学習アルゴリズム集合 (pool) を?意
? 以下の?順でメタドメインを構成
1. 各ドメインの事例にlandmarkersによるerror rateを付与(メタ特徴)
2. 各メタ特徴にpool内のbest CV accuracyを達成するアルゴリズムをラベルとして
付与(メタラベル)
? meta-learnerはlandmarkersの得意なタスク領域をpoolの学習アルゴリズ
ムと相関させるように働く
? InducGve transfer and learning to learn
→ 前者は所謂「教師あり転移学習」後者は現在ではメタ学習を同義的に
使われている
12. Inductive Transfer (帰納的転移)
· · ·· · ·
例:深層ニューラルネットの学習技法
Feature Extrac+on Fine Tuning
今?に?うと教師あり転移学習
→ 元ドメイン,?標ドメインともにラベルデータがある場合の転移学習