狠狠撸
Submit Search
摆顿尝轮読会闭1次近似系惭础惭尝とその理论的背景
3 likes
2,587 views
Deep Learning JP
2019/04/12 Deep Learning JP: http://deeplearning.jp/seminar-2/
Technology
Read more
1 of 31
Download now
Downloaded 27 times
1
2
3
4
5
6
7
8
9
10
Most read
11
Most read
12
13
14
15
16
17
18
19
20
21
22
Most read
23
24
25
26
27
28
29
30
31
More Related Content
What's hot
(20)
PDF
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
Deep Learning JP
?
PDF
Deep Learningと画像認識 ~歴史?理論?実践~
nlab_utokyo
?
PPTX
密度比推定による时系列データの异常検知
- Core Concept Technologies
?
PDF
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
?
PPTX
近年のHierarchical Vision Transformer
Yusuke Uchida
?
PPTX
摆顿尝轮読会闭逆强化学习と骋础狈蝉
Deep Learning JP
?
PDF
骋础狈(と强化学习との関係)
Masahiro Suzuki
?
PDF
【メタサーベイ】数式ドリブン教师あり学习
cvpaper. challenge
?
PPTX
劣モジュラ最适化と机械学习1章
Hakky St
?
PPTX
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
?
PDF
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
?
PDF
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
Preferred Networks
?
PPTX
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
?
PPTX
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
?
PDF
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
?
PPTX
モデル高速化百选
Yusuke Uchida
?
PDF
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII
?
PPTX
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
?
PDF
データに内在する构造をみるための埋め込み手法
Tatsuya Shirakawa
?
PPTX
Noisy Labels と戦う深層学習
Plot Hong
?
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
Deep Learning JP
?
Deep Learningと画像認識 ~歴史?理論?実践~
nlab_utokyo
?
密度比推定による时系列データの异常検知
- Core Concept Technologies
?
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
?
近年のHierarchical Vision Transformer
Yusuke Uchida
?
摆顿尝轮読会闭逆强化学习と骋础狈蝉
Deep Learning JP
?
骋础狈(と强化学习との関係)
Masahiro Suzuki
?
【メタサーベイ】数式ドリブン教师あり学习
cvpaper. challenge
?
劣モジュラ最适化と机械学习1章
Hakky St
?
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
?
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
Preferred Networks
?
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
?
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
?
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
?
モデル高速化百选
Yusuke Uchida
?
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII
?
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
?
データに内在する构造をみるための埋め込み手法
Tatsuya Shirakawa
?
Noisy Labels と戦う深層学習
Plot Hong
?
More from Deep Learning JP
(20)
PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
?
PPTX
【顿尝轮読会】事前学习用データセットについて
Deep Learning JP
?
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
?
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
?
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
?
PPTX
【DL輪読会】マルチモーダル LLM
Deep Learning JP
?
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
?
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
?
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
?
PPTX
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
?
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
?
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
?
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
?
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
?
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
?
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
?
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
?
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
?
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
?
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
?
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
?
【顿尝轮読会】事前学习用データセットについて
Deep Learning JP
?
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
?
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
?
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
?
【DL輪読会】マルチモーダル LLM
Deep Learning JP
?
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
?
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
?
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
?
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
?
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
?
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
?
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
?
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
?
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
?
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
?
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
?
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
?
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
?
Ad
Recently uploaded
(9)
PDF
安尾 萌, 北村 茂生, 松下 光範. 災害発生時における被害状況把握を目的とした情報共有システムの基礎検討, 電子情報通信学会HCGシンポジウム2018...
Matsushita Laboratory
?
PDF
論文紹介:Unbiasing through Textual Descriptions: Mitigating Representation Bias i...
Toru Tamaki
?
PDF
論文紹介:AutoPrompt: Eliciting Knowledge from Language Models with Automatically ...
Toru Tamaki
?
PPTX
色について.pptx .
iPride Co., Ltd.
?
PDF
安尾 萌, 松下 光範. 環境馴致を計量可能にするための試み,人工知能学会第4回仕掛学研究会, 2018.
Matsushita Laboratory
?
PDF
Forguncy 10 製品概要資料 - ノーコードWebアプリ開発プラットフォーム
フォーガンシー
?
PPTX
勉強会_ターミナルコマント?入力迅速化_20250620. pptx. .
iPride Co., Ltd.
?
PDF
安尾 萌, 藤代 裕之, 松下 光範. 協調的情報トリアージにおけるコミュニケーションの影響についての検討, 第11回データ工学と情報マネジメントに関する...
Matsushita Laboratory
?
PPTX
Vibe Codingを始めよう ?Cursorを例に、ノーコードでのプログラミング体験?
iPride Co., Ltd.
?
安尾 萌, 北村 茂生, 松下 光範. 災害発生時における被害状況把握を目的とした情報共有システムの基礎検討, 電子情報通信学会HCGシンポジウム2018...
Matsushita Laboratory
?
論文紹介:Unbiasing through Textual Descriptions: Mitigating Representation Bias i...
Toru Tamaki
?
論文紹介:AutoPrompt: Eliciting Knowledge from Language Models with Automatically ...
Toru Tamaki
?
色について.pptx .
iPride Co., Ltd.
?
安尾 萌, 松下 光範. 環境馴致を計量可能にするための試み,人工知能学会第4回仕掛学研究会, 2018.
Matsushita Laboratory
?
Forguncy 10 製品概要資料 - ノーコードWebアプリ開発プラットフォーム
フォーガンシー
?
勉強会_ターミナルコマント?入力迅速化_20250620. pptx. .
iPride Co., Ltd.
?
安尾 萌, 藤代 裕之, 松下 光範. 協調的情報トリアージにおけるコミュニケーションの影響についての検討, 第11回データ工学と情報マネジメントに関する...
Matsushita Laboratory
?
Vibe Codingを始めよう ?Cursorを例に、ノーコードでのプログラミング体験?
iPride Co., Ltd.
?
Ad
摆顿尝轮読会闭1次近似系惭础惭尝とその理论的背景
1.
1 1次近似系MAMLとその理論的背景 Naruya Kondo, Matsuo
Lab (B4)
2.
背景 2 ? メタ学習の流行 – 複数の似た問題に対して汎用的な能力を得てほしい –
でも、後で特定のタスクには特化できてほしい ? MAMLの流行(?) – メタ学習といえばまずはMAML ? タスク普遍な、全パラメタの良い初期値を求める – すごく自然な発想 ? MAMLは計算コストが高すぎるので1次近似する手法が出ている – ☆割と大事な計算を捨ててなぜうまくいくのか – ☆メタ的に見て良いローカルの更新とは何か – (個人的解釈)基本1次近似系を使っといた方が良さそう
3.
発表内容 3 ? 論文 – On
First-Order Meta-Learning Algorithms(OpenAI, 2018) ? https://arxiv.org/abs/1803.02999 – MAMLの一次近似手法FOMAMLを拡張した『Reptile』を提案 – 一次近似系MAMLを解析的/実験的に評価 – 後続研究が凄そう(方向性はそれぞれ少し違う) ? Transferring Knowledge across Learning Processes(ICLR 2019 oral) ? Bayesian Model-Agnostic Meta-Learning(NeurIPS 2018) ? Auto-Meta: Automated Gradient Based Meta Learner Search(NeurIPS 2018) ? 内容 – 前提知識(メタ学習, joint training, MAML, FOMAML) – 提案手法Reptile – メタ更新の解釈(メタ勾配の向き, パラメタ空間内での振る舞い) – 実験(Reptile v.s. MAML/FOMAML, Reptileの頑健性)
4.
メタ学習 ? 複数の似た問題に対して汎用的な能力を得てほしい – 様々な言語での文字認識 –
強化学習(様々な身体的パラメタ/様々な環境/様々な報酬(タスク)) – (汎用AI感?) ? 全タスクでのエラーの期待値を最小化したい 4omniglot/Guided Meta-Policy Search
5.
? 恐らく一番単純なmeta-learning手法 ? どんなタスクも満遍なくこなせるよう、エラーの期待値を最小化 –
Τ: 全train taskからサンプリング – 評価タスクでは、学習したθ or 少しチューニングしたθ’を使って解く ? チューニングで精度が上がる保証は全く無い ? 4本足歩行RLの例(あくまでイメージ) – どんな坂道でも歩けるよう、グローバルに良いリズムで足を繰り出す – 結局は平均的な道(≒平坦な道)でしっかり歩けるようにするだけ ? 単純だけど、MAMLも半分joint training。 5
6.
joint trainingとの比較を意識して書くと、 ? 本当にやりたいのは、評価時のエラーの期待値の最小化 –
学習時(meta-train) ? Τ_tr/Τ_val: train taskからサンプリングしたΤをさらに訓練用/評価用に分ける ? inner_update & meta_updateを繰り返す。 – 評価時(meta-test) ? 解きたいタスクのfew sample/few episodeでチューニング ? 必ず良いチューニングができる==良い初期値が得られている。 6/YoonhoLee4/on-firstorder-metalearning-algorithms
7.
(問題設定がやや面倒なので省略) ? sin波形状推定 – 様々な(λ:振幅,
θ:位相) == タスク – 書くタスク10点与えられて(==train)、全定義域で予測(==test) ? joint trainingだと、様々なタスクで学習したところで 定数関数f(x)=0が最適解。few sampleでのチューニングは無理。 ? joint trainingはダメ。『評価時のエラーの期待値の最小化』が大事。 7
8.
? 実利用上の話、 MAMLはかなりのメモリを消費することが知られている。 – 結果から見れば無駄に計算コストが高い –
inner_updateの回数にほぼ比例してメモリが持ってかれる(後述) ? そのため多くのMAML実装ではfew_stepなinner_updateが一般的(主観) ? MAMLのmeta-train時の式を一次近似して使うと良いらしい。 – (MAMLが初めに提案された論文にも命名書かれている) – 後にFOMAML(first-order MAML)と命名される 8
9.
? 初期パラメタφの更新 – 二次勾配(L’’(φ))が登場する ?
lossをパラメタ数nの2乗回微分(?)←重たい – L_i: iステップ目でのloss, 9 後で囲った 部分それぞ れでα^2以 上の項を無 視してみる
10.
? 二次勾配全部無視(Ui(φi)=φi, →Lkはφ1で発生) ?
一番最後のloss == train taskのvalでのlossのみ使う – inner_update時の勾配を保存しない。実装的に自然な発想。 – 恐らくfew stepな更新を前提にしているのでうまくいく 10 φ1 φ2 φ3 φ4 φ5 φ6
11.
? inner_update時の勾配を全部合成する – こちらも二次勾配は無視。 –
パラメータ空間上の動きを見ると こちらの方が自然。 – FOMAMLと比べて計算コストはほぼ増えない – step数が増えても問題ない ? 別の解釈 – 最後にたどり着いたパラメタとの差の方向に進む ? MAMLの直接的な近似ではない(と思う) 11
12.
transduction: テスト時に渡すデータが1つか複数か(複数の方が簡単) ? 遜色なし。(勝手な解釈→)難しいタスクだと、Reptile≧MAML≧FOMAML
12
13.
13 メタ更新の解釈
14.
? ヘッセ行列をまるごと無視していいのか ? MAML/FOMAML/Reptileの勾配方向の差には どのような意味があるのか 14 後で囲った 部分それぞ れでα^2以 上の項を無 視してみる
15.
メタ勾配の向き ? まず、g_i – Loss関数に依存するが、φ1周りでテイラー展開して α^2以上の項を無視してすべてφ1周りの勾配で表す ?
全部φ1周りを計算すれば各地点での勾配を集めて処理しやすくなる 15
16.
メタ勾配の向き ? 前2枚のスライドの内容 ? を合わせて、 16
17.
メタ勾配の向き ? ここから一旦k=2まで(inner_update1回+評価1回)を考える。 ? FOMAML/Reptileについても、 ?
から同様に – ただし 17 ( )
18.
メタ勾配の向き ? 勾配の更新は実際には、複数タスクでの勾配の平均を取る – 平均をとると面白い(平均を取ることに大きな意味がある) 18
19.
メタ勾配の向き ? g_barの平均 ? H_bar
gの平均 19
20.
メタ勾配の向き ? gi_barの平均 – 『?
AvgGrad』方向はjoint trainingに相当している ? 「φ1をどっちに更新すればlossが小さくなったのか」 ? それがチューニングしやすいかは考慮されてない 20
21.
メタ勾配の向き ? Hi_bar gjの平均 –
『AvgGradInner』方向は、各inner_update時の(各ミニバッチ間の)勾配の内積の値 を上げている ? 同じタスクなのに違う方向に更新することは過適合している証(たぶん) ? タスクに共通な汎化性能の向上に寄与する 21
22.
メタ勾配の向き ? 平均を取ると、 ? FOMAMLがMAMLから捨てたのはAvgGradInner一回分 –
同じiter回数ならその分だけ性能が落ちる ? ReptileはMAMLにAvgGradを+1回、AvgGradInnerを-1回 – Reptileは厳密にはMAMLの一次近似ではないので良し悪しは自明でない。 – AvgGradInnerを増やすには…→inner_update数を増やす 22
23.
メタ勾配の向き ? kステップ先まで伸ばすと、 ? どの手法も伸ばせば伸ばすほどAvgGradInnerの 割合が高くなる –
伸ばしておけば汎化性があがると考えられる ? Reptileはエラーの期待値を高速に下げる効果も この式から期待できる。 23
24.
パラメタ空間内での探索時の振る舞い ? Reptileは、パラメタ空間内でユークリッド距離的に最適な場所へ行くことが 示せる ? Reptileは暗黙的に以下を行っている(距離の期待値の最小化) –
Wτ: あるタスクτの最適なパラメタのリスト(多様体?) ? 最適なパラメタは無数にある(入れ替え可能なパラメタはたくさんあるので) 24 W1 W2
25.
パラメタ空間内での探索時の振る舞い ? 現在の初期値φに最も近いWτ内のパラメタをP_Wτとすると ? 一つ一つのタスクに注目すると、 ?
実際にはP_Wτはわからないので、 これをφkに置き換える ? これはReptileのmeta_updateの式と同じ ? MAML/FOMAMLには無い良さ 25
26.
26 実験
27.
? inner_loop時に、ミニバッチを4 つ、対応するlossとgradをそれ ぞれ計算し、 どのgradを使ってmeta_update するかを変える実験。 ? gk:
FOMAML ? Σgi: Reptile ? g4<g1+g2+g3+g4 ? g3<g1+g2+g3 – Reptileが優位 ? g2>g1+g2 – step数が少なくReptileでは AvgGradInnerが足りな かったと考えられる 27
28.
の頑健性 ? (a)inner_updateの数を変えた実験 – separate-tail/shared-tail:
train-taskをさらに train/valに分ける(MAMLでの標準的な方法) か否か – cycling/replacement: ミニバッチを作り直さ ずに使いまわす/ランダムサンプリングし直す か ? Reptileの優位性 – タスクをさらにtrain/valに分ける必要なし – 同じミニバッチを使ってinner_updateを繰り 返してもok ? gradを足し合わせるからあまり問題ない 28
29.
の頑健性 ? (b)batch_sizeを変えた実験 – 各タスクに含まれるデータ数:25個 –
inner_update4回 ? データの数が少ないので、バッチサイズを 増やすと同じデータを使う機会が増える ? (a)と同じ理由でReptileだと問題ない 29
30.
の頑健性 ? (c)FOMAMLに不利なパラメタを使ったの では? ? →meta_update時のstep
sizeをどう変え ても悪かった – inner_update4回, batch_size=100 ? FOMAMLは、少ないstepで良いθに着い た場合に最後の勾配の方向が定まらない ため→Reptile良いよね 30
31.
まとめ ? 一次近似MAMLベースの手法Reptileを提案 – 速い収束&頑健性が期待できる ?
良い(MAML/勾配法ベースの)メタ学習法とは何かを示した – エラー期待値の最小化 – ステップ間の内積の最大化 – 解探索時の振る舞い ? MAMLを使う際は一旦一次近似版を考えてみるべき 31
Download