狠狠撸
Submit Search
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Jul 28, 2023
Download as pptx, pdf
1 like
549 views
Deep Learning JP
2023/7/28 Deep Learning JP http://deeplearning.jp/seminar-2/
Technology
Read more
1 of 14
Download now
Download to read offline
1
2
3
Most read
4
5
6
7
8
9
Most read
10
Most read
11
12
13
14
More Related Content
What's hot
(20)
PPTX
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP
?
PDF
深層学習によるHuman Pose Estimationの基礎
Takumi Ohkuma
?
PPTX
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
?
PDF
【CVPR 2019】DeepSDF: Learning Continuous Signed Distance Functions for Shape R...
cvpaper. challenge
?
PDF
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
?
PDF
贰尝叠翱型痴础贰のダメなところ
KCS Keio Computer Society
?
PDF
动作认识の最前线:手法,タスク,データセット
Toru Tamaki
?
PDF
動画認識サーベイv1(メタサーベイ )
cvpaper. challenge
?
PDF
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
?
PDF
深层生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
?
PDF
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
Deep Learning JP
?
PDF
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
?
PDF
叁次元表现まとめ(深层学习を中心に)
Tomohiro Motoda
?
PDF
颁痴分野におけるサーベイ方法
Hirokatsu Kataoka
?
PDF
Transformer メタサーベイ
cvpaper. challenge
?
PDF
ICCV 2019 論文紹介 (26 papers)
Hideki Okada
?
PDF
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII
?
PPTX
モテ?ルアーキテクチャ観点からの高速化2019
Yusuke Uchida
?
PDF
「世界モデル」と関连研究について
Masahiro Suzuki
?
PDF
SSII2019企画: 点群深層学習の研究動向
SSII
?
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP
?
深層学習によるHuman Pose Estimationの基礎
Takumi Ohkuma
?
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
?
【CVPR 2019】DeepSDF: Learning Continuous Signed Distance Functions for Shape R...
cvpaper. challenge
?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
?
贰尝叠翱型痴础贰のダメなところ
KCS Keio Computer Society
?
动作认识の最前线:手法,タスク,データセット
Toru Tamaki
?
動画認識サーベイv1(メタサーベイ )
cvpaper. challenge
?
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
?
深层生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
?
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
Deep Learning JP
?
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
?
叁次元表现まとめ(深层学习を中心に)
Tomohiro Motoda
?
颁痴分野におけるサーベイ方法
Hirokatsu Kataoka
?
Transformer メタサーベイ
cvpaper. challenge
?
ICCV 2019 論文紹介 (26 papers)
Hideki Okada
?
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII
?
モテ?ルアーキテクチャ観点からの高速化2019
Yusuke Uchida
?
「世界モデル」と関连研究について
Masahiro Suzuki
?
SSII2019企画: 点群深層学習の研究動向
SSII
?
Similar to 【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
(20)
PDF
【メタサーベイ】数式ドリブン教师あり学习
cvpaper. challenge
?
PDF
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
?
PPTX
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
Deep Learning JP
?
PDF
機械学習 入門
Hayato Maki
?
PDF
220707_ishizone_class_imbalance_SSL.pdf
ssuser70401c
?
PPTX
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)
MIKIOKUBO3
?
PDF
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
PPTX
Multi-agent Inverse reinforcement learning: 相互作用する行動主体の報酬推定
Keiichi Namikoshi
?
PPTX
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
?
PDF
机械学习の理论と実践
Preferred Networks
?
PDF
bigdata2012ml okanohara
Preferred Networks
?
PPTX
Statistical machine learning forecasting methods concerns and ways forward
harmonylab
?
PPTX
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
?
PDF
机械学习とコンピュータビジョン入门
Kinki University
?
PDF
オンライン凸最适化と线形识别モデル学习の最前线冲滨叠滨厂2011
Preferred Networks
?
PDF
予测型戦略を知るための机械学习チュートリアル
Yuya Unno
?
PPTX
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで Vm 1
Shunsuke Nakamura
?
PPTX
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
Shunsuke Nakamura
?
PDF
第1回メト?レー読书会
Shengbo Xu
?
PPTX
[DL輪読会]High-Fidelity Image Generation with Fewer Labels
Deep Learning JP
?
【メタサーベイ】数式ドリブン教师あり学习
cvpaper. challenge
?
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
?
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
Deep Learning JP
?
機械学習 入門
Hayato Maki
?
220707_ishizone_class_imbalance_SSL.pdf
ssuser70401c
?
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)
MIKIOKUBO3
?
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
Multi-agent Inverse reinforcement learning: 相互作用する行動主体の報酬推定
Keiichi Namikoshi
?
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
?
机械学习の理论と実践
Preferred Networks
?
bigdata2012ml okanohara
Preferred Networks
?
Statistical machine learning forecasting methods concerns and ways forward
harmonylab
?
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
?
机械学习とコンピュータビジョン入门
Kinki University
?
オンライン凸最适化と线形识别モデル学习の最前线冲滨叠滨厂2011
Preferred Networks
?
予测型戦略を知るための机械学习チュートリアル
Yuya Unno
?
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで Vm 1
Shunsuke Nakamura
?
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
Shunsuke Nakamura
?
第1回メト?レー読书会
Shengbo Xu
?
[DL輪読会]High-Fidelity Image Generation with Fewer Labels
Deep Learning JP
?
Ad
More from Deep Learning JP
(20)
PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
?
PPTX
【顿尝轮読会】事前学习用データセットについて
Deep Learning JP
?
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
?
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
?
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
?
PPTX
【DL輪読会】マルチモーダル LLM
Deep Learning JP
?
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
?
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
?
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
?
PPTX
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
?
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
?
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
?
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
?
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
?
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
?
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
?
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
?
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
?
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
?
PPTX
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
Deep Learning JP
?
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
?
【顿尝轮読会】事前学习用データセットについて
Deep Learning JP
?
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
?
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
?
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
?
【DL輪読会】マルチモーダル LLM
Deep Learning JP
?
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
?
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
?
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
?
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
?
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
?
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
?
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
?
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
?
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
?
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
?
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
?
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
?
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
Deep Learning JP
?
Ad
Recently uploaded
(9)
PPTX
色について.pptx .
iPride Co., Ltd.
?
PDF
安尾 萌, 藤代 裕之, 松下 光範. 協調的情報トリアージにおけるコミュニケーションの影響についての検討, 第11回データ工学と情報マネジメントに関する...
Matsushita Laboratory
?
PPTX
勉強会_ターミナルコマント?入力迅速化_20250620. pptx. .
iPride Co., Ltd.
?
PDF
論文紹介:AutoPrompt: Eliciting Knowledge from Language Models with Automatically ...
Toru Tamaki
?
PDF
安尾 萌, 北村 茂生, 松下 光範. 災害発生時における被害状況把握を目的とした情報共有システムの基礎検討, 電子情報通信学会HCGシンポジウム2018...
Matsushita Laboratory
?
PDF
Forguncy 10 製品概要資料 - ノーコードWebアプリ開発プラットフォーム
フォーガンシー
?
PDF
安尾 萌, 松下 光範. 環境馴致を計量可能にするための試み,人工知能学会第4回仕掛学研究会, 2018.
Matsushita Laboratory
?
PPTX
Vibe Codingを始めよう ?Cursorを例に、ノーコードでのプログラミング体験?
iPride Co., Ltd.
?
PDF
論文紹介:Unbiasing through Textual Descriptions: Mitigating Representation Bias i...
Toru Tamaki
?
色について.pptx .
iPride Co., Ltd.
?
安尾 萌, 藤代 裕之, 松下 光範. 協調的情報トリアージにおけるコミュニケーションの影響についての検討, 第11回データ工学と情報マネジメントに関する...
Matsushita Laboratory
?
勉強会_ターミナルコマント?入力迅速化_20250620. pptx. .
iPride Co., Ltd.
?
論文紹介:AutoPrompt: Eliciting Knowledge from Language Models with Automatically ...
Toru Tamaki
?
安尾 萌, 北村 茂生, 松下 光範. 災害発生時における被害状況把握を目的とした情報共有システムの基礎検討, 電子情報通信学会HCGシンポジウム2018...
Matsushita Laboratory
?
Forguncy 10 製品概要資料 - ノーコードWebアプリ開発プラットフォーム
フォーガンシー
?
安尾 萌, 松下 光範. 環境馴致を計量可能にするための試み,人工知能学会第4回仕掛学研究会, 2018.
Matsushita Laboratory
?
Vibe Codingを始めよう ?Cursorを例に、ノーコードでのプログラミング体験?
iPride Co., Ltd.
?
論文紹介:Unbiasing through Textual Descriptions: Mitigating Representation Bias i...
Toru Tamaki
?
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
1.
1 Atsuya Kitada, Matsuo
Lab, M2 SimPer: Simple self-supervised learning of periodic targets ( ICLR 2023 )
2.
2 書誌情報 SimPer: Simple self-supervised
learning of periodic targets ? ICLR 2023 Notable-top-5% ? 著者:Yuzhe Yang*1, Xin Liu*2, Jiang Wu * 3, Silviu Borac * 3, Dina Katabi * 1, Ming-Zher Poh * 3, Daniel McDuff * 2,3 (*1 MIT CSAIL, *2 University of Washington, *3 Google)
3.
3 概要 背景 ? 周期性を持つデータは機械学習の応用先として重要だが、ラベリングが困難である ? データの周期性を考慮した自己教師あり学習が提案されていない 提案手法 ?
インスタンスの違いで正例/負例を定義していた従来の対照学習と異なり、周期性の 違いで正例/負例を定義 ? InfoNCE損失から、周期的な類似性を測る損失関数へと拡張。 有効性 ? 様々な周期性予測タスクで従来のSSLを上回る精度。 ? データ効率性が高い。 ? 未知データに対する汎化性能が高い。
4.
4 背景 周期性を持つデータ?タスクは機械学習の応用先として重要だが、ラベリングが困難である 応用先の例 ? ヘルスケア領域 ? 心拍数、呼吸、血圧 ?
リモートセンシング ? 降水パターン、地表の温度変化 ? 行動分析 ? 人物動作の周期?回数 周期性を持ったデータのラベリングは一般に困難 ? 医療用センサー ? プライバシーに配慮した生体計測
5.
5 背景 従来の自己教師あり学習手法は周期的な帰納バイアスを組み込んでいない ? Contrastive Lossに基づく一連の研究が自己教師あり学習で成功を収めている。 ?
同一のサンプルの異なるビュー(正例)に対しては似た埋め込みに、異なるサンプル (負例)に対しては異なる埋め込みになるよう学習する。 ? ビデオ理解やアクション分類などの時系列データ領域への拡張がなされている。 ? Video representation learning by recognizing temporal transformations. ? Spatiotemporal Contrastive Video Representation Learning ? しかし、現在の自己教師あり学習は周期性に関する帰納バイアスが見落とされている。
6.
6 提案手法 SimPer:周期性に応じて正例/負例を定義 ? 同じ入力インスタンスに対して①周期性不変の拡張と②周期性変動の拡張をかけ、正例/負例を作成。 ? ①
Periodicity-Variant Augmentations: 周波数領域を変換し負例を作成。元データの周波数は不明 だが、擬似的な周波数ラベルが作成可能(周波数の近さをサンプル間で測定可能)。 ? ② Periodicity-Invariant Augmentations: 周波数が不変となるような変換をかけ、正例を作成。
7.
7 提案手法 SimPer:シンプルなアルゴリズム
8.
8 提案手法 SimPer:周期的な特徴類似性を測定する損失関数を導入 ? 周期的な特徴類似性を測定するために、離散的なインスタンス判別(単一目標分類)のInfoNCE損失から、 すべての拡張ペアに対する加重損失(回帰)への簡単な一般化 ? M:
Periodicity-Variant Augmentationsの数。 ? s : Speed (Frequency) ? Sim : periodic feature similarity ? z, z^: エンコード後の特徴量
9.
9 実験 実験設定 データセット ? RotatingDigits ? 数字の回転周期の予測 ?
SCAMPS ? 心拍数の予測 ? UBFC ? 心拍数の予測 ? PURE ? 心拍数の予測 ? Countix ? 動作の回数のカウント ? Land Surface Temperature (LST) ? 将来の地表温度予測
10.
10 実験 実験設定 モデルアーキテクチャ ? データセットごとに先行研究に倣ったアーキテクチャを設定 ? RotatingDigits,
SCAMPS:3D-CNN ? UBFC, PURE:TS-CAN ? Countix, LST:ResNet-3D-18 ベースラインSSL手法 ? SimCLR, MoCo v2, BYOL, CVRL 評価方法 ? Linear Probing:学習された特徴量の上で線形分類や線形回帰の層を訓練することで、どの程度分離可能 な表現になっているか評価。 評価指標 ? Mean Average Error (MAE):予測値と実際の値との差(誤差)の絶対値の平均 ? Mean Average Percentage Error (MAPE):予測値と実際の値との差(誤差)の絶対値の比率の平均
11.
11 実験 多数の周期性予測タスクにおいて提案手法が勝る結果に ? 特徴量に直接フーリエ変換をかけて周波数を評価する方法?線形回帰の層を挟む方法の2種類で評価。 ? 様々なタスクから成る異なるデータ全体に渡って、提案手法は最高精度を達成するより良い表現を学習。
12.
12 実験 提案手法はデータ効率が良い ? データセットサイズを100%?5%に減らしながら、 Rotating
Digitsで学習された表現を、各手法ごとに比較。 ? 特に利用可能なデータ量が少ない時、提案手法は教師ありで獲得される表現を凌駕。 ※ UMAPによる可視化
13.
13 実験 Zero-shotでの汎化性能分析 ? 一部周波数帯を欠損させた訓練データセットを作り、内挿 /
外挿それぞれで汎化性能を分析。 ? SimPerは学習時に無いデータに汎化できるような頑健な表現を学習可能。
14.
14 結論(再掲) 背景 ? 周期性を持つデータは機械学習の応用先として重要だが、ラベリングが困難である ? データの周期性を考慮した自己教師あり学習が提案されていない 提案手法 ?
インスタンスの違いで正例/負例を定義していた従来の対照学習と異なり、周期性の 違いで正例/負例を区別 ? InfoNCE損失から、周期的な類似性を測る損失関数へと拡張。 有効性 ? 多様な周期性予測タスクで従来のSSLを上回る精度。 ? データ効率性が高い。 ? 未知データに対する汎化性能が高い。
Editor's Notes
#7:
データの負の視点は、周波数領域での変換を通じて構築されます。 入力シーケンスxに対して、周波数変化の補強τ ∈ Tを定義します。ここで、TはNyquistサンプリング定理の下で可能な任意の速度でxを変化させる変換のセットを表します。 図2に示すように、SimPerはxをM回補強し、一連の速度(周波数)変化したサンプル {τ1(x), τ2(x), ..., τM(x)}を得ます。これらの相対速度はs1 < s2 < ... < sM、si ∝ freq(τi(x))を満たします。 このような補強は、シフトした周波数を持つ基礎となる周期的なターゲットを効果的に変更し、異なる負の視点を作り出します。 よって、元の目標周波数は不明であるが、我々はラベルなしのxに対して擬似的な速度(周波数)ラベルを効果的に考案します。 実際には、速度変化の範囲を[smin , smax]の範囲内に制限し、時間次元での拡張シーケンスが一定の長さ以上になるように確認します。 周期性不変の補強σ ∈ Sをさらに定義します。ここで、Sは元の入力のアイデンティティを変えない変換の集合を示します。 集合が有限であるとき、つまり、S = {σ1,...,σk}であるとき、我々はfreq(σi(x)) = freq(σj(x)),?i,j ∈ [k]を持ちます。 このような補強は、周期性の観点からデータの不変性を学習するために使用でき、異なる正の視点を作り出します。 実際には、空間的な(例:クロップ&リサイズ)および時間的な(例:リバース、ディレイ)補強を利用して、同一のインスタンスの異なる視点を作り出します(図2参照)。
#8:
データの負の視点は、周波数領域での変換を通じて構築されます。 入力シーケンスxに対して、周波数変化の補強τ ∈ Tを定義します。ここで、TはNyquistサンプリング定理の下で可能な任意の速度でxを変化させる変換のセットを表します。 図2に示すように、SimPerはxをM回補強し、一連の速度(周波数)変化したサンプル {τ1(x), τ2(x), ..., τM(x)}を得ます。これらの相対速度はs1 < s2 < ... < sM、si ∝ freq(τi(x))を満たします。 このような補強は、シフトした周波数を持つ基礎となる周期的なターゲットを効果的に変更し、異なる負の視点を作り出します。 よって、元の目標周波数は不明であるが、我々はラベルなしのxに対して擬似的な速度(周波数)ラベルを効果的に考案します。 実際には、速度変化の範囲を[smin , smax]の範囲内に制限し、時間次元での拡張シーケンスが一定の長さ以上になるように確認します。 周期性不変の補強σ ∈ Sをさらに定義します。ここで、Sは元の入力のアイデンティティを変えない変換の集合を示します。 集合が有限であるとき、つまり、S = {σ1,...,σk}であるとき、我々はfreq(σi(x)) = freq(σj(x)),?i,j ∈ [k]を持ちます。 このような補強は、周期性の観点からデータの不変性を学習するために使用でき、異なる正の視点を作り出します。 実際には、空間的な(例:クロップ&リサイズ)および時間的な(例:リバース、ディレイ)補強を利用して、同一のインスタンスの異なる視点を作り出します(図2参照)。
#9:
LSimPerは、離散的なインスタンス判別(単一目標分類)のInfoNCE損失から、すべての拡張ペアに対する加重損失(ソフト回帰バリアント)への簡単な一般化です。ここで、ソフトターゲットexp(wi,j )/Σk exp(wi,k )は、各ペアのラベル(速度)類似性wi,jによって駆動されます。 ラベルが離散的になると(すなわち、wi,j ∈ {0, 1})、LSimPerは元のInfoNCE損失に退化します。 付録D.4.4で示していますが、このような一般化された損失を通じた連続性モデリングは、単純にInfoNCEを適用するよりも優れたダウンストリームパフォーマンスを達成するのに役立ちます。
Download