狠狠撸

狠狠撸Share a Scribd company logo
Variational Inference:
Foundations and Modern Methods
担当:落合幸治@理化学研究所
第3回nips読み会?関西 2017/3/18(土)
David Blei @Columbia University
Shakir Mohamed @DeepMind
Rajesh Ranganath @Princeton University
NIPS 2016 Tutorial · December 5, 2016
注意
? もしこのスライドを見てわからない点があったら(翻訳ミスの可能
性があるため)以下元資料を確認
? まとめ
https://nips.cc/Conferences/2016/Schedule?showEvent=6199
? Video
https://channel9.msdn.com/Events/Neural-Information-
Processing-Systems-Conference/Neural-Information-Processing-
Systems-Conference-NIPS-2016/Variational-Inference-
Foundations-and-Modern-Methods
? 狠狠撸(PDF)
https://media.nips.cc/Conferences/2016/狠狠撸s/6199-狠狠撸s.pdf
Variational Inference?
一般の推論(最尤推定)
確率的推論?
? 確率的推論を効率的かつ安定に行うための方法の一つ
確率的推論
例:重回帰、ニューラルネット 例:尝顿础、痴础贰
確率的推論?
Variational Inference?
一般の推論(最尤推定)
? 確率的推論を効率的かつ安定に行うための方法の一つ
確率的推論
例:重回帰、ニューラルネット 例:尝顿础、痴础贰
確率的推論
? 推論先の点がつねに一点にさ
だまるとは限らない
? 例:画像の上半分から
下半分を推測→
? 分布の期待値がつねにもっと
も良い結果とは限らない
? 自然画像の期待値(平均値)は
のっぺりした灰色の画像
質問
1. 確率的勾配法(stochastic gradient descent, SGD)とは
何か知っている or 使ったことがある
2. 『パターン認識と機械学習』の9章:混合モデルとEM、
10章:変分推論を読んだことがある
3. Variational Autoencoderという言葉を聞いたことがあ
る
目次
1. 変分推論とは
2. 平均場近似と確率的変分推論
3. 変分下界に対する確率的勾配法
4. 平均場近似を仮定しない変分推論
※オリジナルのチュートリアルに準拠
目次
1. 変分推論とは
2. 平均場近似と確率的変分推論
3. 変分下界に対する確率的勾配法
4. 平均場近似を仮定しない変分推論
※オリジナルのチュートリアルに準拠
? SGDを知っていればここまでは簡単
目次
1. 変分推論とは
2. 平均場近似と確率的変分推論
3. 変分下界に対する確率的勾配法
4. 平均場近似を仮定しない変分推論
※オリジナルのチュートリアルに準拠
? 一番の難所
? PRMLの9章、10章の内容を発展
? VAEの理論的背景がわかる
目次
1. 変分推論とは
2. 平均場近似と確率的変分推論
3. 変分下界に対する確率的勾配法
4. 平均場近似を仮定しない変分推論
※オリジナルのチュートリアルに準拠
? 現代の(2016年以降の)研究
? 事前知識があると少し感動する
1. 変分推論とは
確率的推論を最適化問題として解けるようにする
確率的推論
? 確率モデルとは観測変数?と隠れ変数?の同時分布
?(?, ?)
? 確率モデルがあれば未知変数も事後分布として求められる
? ? ? =
?(?, ?)
? ?, ? ??
? 例えばxを画像zをラベルとすると分類問題がとける
? ほとんどの問題において分母の積分が解けないので近似が必要
変分推定 知りたい真の
条件付き分布
近似分布?で表
現可能な範囲
?上に貼られた
確率分布の空間
歴史
? 変分推定は統計力学のアイディアを確率推定に適用することで
始まりました。おそらく80年代にPetersonとAndersonが平均
場法をニューラルネットで使ったことが始まりです。
? このアイディアはJordan研究室で1990年代に取り上げられ、
Tommi Jaakkola, Lawrence Saul, Zoubin Gharamani によって
多くの確率モデルに一般化されました。
? それと並行してHintonとVan Campがニューラルネットによる
平均場法を開発(1993)。NealとHintonはこのアイディアをEM
法につなげそれがmixture of expertsやHMMなどへ変分法をさ
らに進展させました。
現在
? 現在では変分法における多くの活発な取り組みがあります。大
規模化、簡易化、高速化、正確化、複雑なモデルへの適用と応
用
? 現在の変分推定は多くの領域にまたがっています:確率的プロ
グラミング、強化学習、ニューラルネット、凸最適化、ベイズ
統計、そして広範囲にわたる応用分野。
? このスライドの目的は基礎から始まり、いくつかの最近のアイ
ディアを紹介し、新研究における最前線を知ってもらうことで
す。
2.平均場近似と確率的変分推論
? 平均場近似:最適化をしやすくするためモデルの表現力を落とす
? 確率的変分法:大規模データに対応するため確率的最適化を行う
确率推论の手顺
第3回nips読み会?関西『variational inference  foundations and modern methods』
例:Topic Modeling
大量の文章集合の中から文章のトピックスなどの構造を見つけ出したい!
确率推论の手顺
例:Latent Dirichlet Allocation(LDA)
? トピックは単語の集合
? ドキュメントは複数のト
ピックを特定の比率で混ぜ
合わせたもの(単語の順序
は考えない)
? 単語は特定のトピックから
持ってくる
? 実際に観測できるのはド
キュメントだけ
? 他は事後分布推定
? 注:ドキュメントも潜在変
数も大量にある
?(??????, ???????????, ???????????|?????????)
LDAのグラフィカルモデル
? 仮定を同時分布の因
数分解として表現
? 仮定とデータを組み
合わせて事後分布を
求める
因数分解
确率推论の手顺
事後分布の推定
この積分は(一般に)計算不能 近似
変分推定 知りたい真の
条件付き分布
近似分布?で表
現可能な範囲
?上に貼られた
確率分布の空間
Evidence Lower Bound(ELBO)
? log ? ? の下界
? ELBO最大化はKLダイバージェンスの最小化にな
(なぜそうなるかは3章で説明)
? 最初の項はMAP推定に相当
? 第二項(エントロピー)は?を可能な限り拡散させる
エントロピー
问题の一般化
平均場近似
? 平均場近似は各変数が独立であることを仮定
? “平均場近似”と”各確率変数が共役分布であること”
を仮定すると他の変数を固定した状態で着目してい
る変数を更新するという手順の繰り返しでELBOを最
大化できる
古典的変分推定
確率的変分推定
? 大規模データに
対応
? 確率的勾配法と
同じ発想
? ステップサイズ
系列ρ ?は
Robbins-Monro
conditionsに従う
ものとする(大
まかには徐々に
小さくなってい
くと思っておけ
ば良い)
LDAに対する確率的変分推論
? ドキュメントをサンプル
? 現在のトピック設定に従ってローカルのパラメータを推定する
? ローカルパラメータからトピック設定を仮更新する
? 現在のトピック設定と仮更新したトピック設定で新たなトピッ
ク設定を作る
自動抽出さ
れたトピッ
クと単語
3. 変分下界に対する確率的勾配法
変分下界:確率的機械学習におけるロス関数
なぜELBO最大化=KL最小化?
log ? ? = ? ? + KL(?(?; ?)||?(?|?))
log ? ?
? ?
KL(?(?; ?)||?(?|?))
? ??
PRML9章、10章より補完
変分推定 知りたい真の
条件付き分布
近似分布?で表
現可能な範囲
?上に貼られた
確率分布の空間
変分推定のレシピ
1. モデルを考える ?(?, ?)
2. 潜在変数の近似分布を選ぶ ?(?; ?)
3. ELBOを定式化
? ? = E ?(?;?)[log ? ?, ? ? log? ?: ? ]
4. 期待値(積分)を計算
? ? = ??2
+ log ?: Example
5. 導関数を求める
??? ? = 2?? +
1
?
6. 最適化する
? ?+1 = ? ? + ?? ??? ?
現実は甘くない
? ベイズロジスティック回帰を変分推定しようとした結果(xが入力y
が出力zが回帰係数)
? 期待値が解析的に求められない + 変分係数に関係する値(z)が期待
値の中に残っている = 導関数が求められない
確率的勾配法が使えるよう式を変形
ここが解けない
先に微分 確率的勾配法
式変形
ELBO
Define
ELBOを安定に求めるための方法
Score Function Gradients
Pathwise Gradient
Amortized Inference
汎用的
安定、高速
Score Function Estimator
単純化
再掲
勾配
Likelihood ratio(尤度)またはREINFORCE gradients(強化学習勾配?)
ともよばれる
単純化について補足
nips読み会での議論を踏まえ追加
? ? ??g ?, ? = ? ? ??log? ?; ?
g ?, ? = log? ?, ? ? log ?(?; ?)
= ?(?; ?)??log? ?; ? ??
= ?(?; ?)
?? ? ?; ?
?(?; ?)
??
= ?? ? ?; ? ??
= ?? ? ?; ? ??
= 0
=1
微分と積分の順序交換より
モンテカルロ近似による勾配計算
モンテカルロ近似
Black Box Variational Inference
適用のための条件
? ?(?)からサンプリング可能
? ?? log ?(?; ?)が計算可能
? log ?(?, ?)とlog ?(?)が計算可能
モデル固有の作業がない:汎用的な適用が可能
Black Box Variational Inference
Score Function Estimatorは不安定
確率の低い場所のサンプリングはスコアと分散が大きくなる
コントロール変数を使用することで軽减
Pathwise Estimator
Pathwise Estimator
単純化
分散の比较
ローカル変数の決定は高コスト
各データ点ごとで最適化演算が必要
Amortizing Inference
Amortizing Inference
例:変分オートエンコーダ(痴础贰)
四角は深層ニューラルネットワーク
例:変分オートエンコーダ(痴础贰)
全般的なアドバイス
? もし?(?, ?)が?について微分可能だったら
? リパラメタライゼーションが可能な?を使いなさい
? もし?(?, ?)が?について微分不可能だったら
? コントロール変数ありのScore Functionを使いなさい
? 実験的証拠に基づいてさらに分散を減少させなさい
(意訳:試行錯誤で頑張って分散を下げなさい)
? 全般的に
? 座標ごとにラーニングレートを調節(RMSProp, AdaGrad)
? アニーリング + 温度
? サンプリングを並列化できないか一度考えてみる
Software
4.平均場近似を仮定しない変分推論
平均場近似は極端すぎるので適度に複雑でソコソコ効率的に計算できるも
でるモデルを考える
構造化事後分布近似(Structured Posterior Approximations)
目標:高い近似能力と計算効率の両立
構造化事後分布近似(Structured Posterior Approximations)
目標:高い近似能力と計算効率の両立
Gaussian
Approximate
Posteriors
Autoregressive
distribution
Change-of-
variables
Change-of-
variables
Linear time computation of the determinant and its gradient.
Change-of-
variables
Auxiliary-
variable
Methods
Auxiliary-
variable
Methods
まとめ
Variational Inference:
Foundations and Modern Methods
? VIは複雑なモデルの変量を
近似できる
? 確率的最適化をによって
? 大量のデータにスケー
ルアップできる
? 複雑なモデルに対応で
きる
? 精密かつ柔軟な近似が
可能となる
Ad

Recommended

贬测辫别谤辞辫迟とその周辺について
贬测辫别谤辞辫迟とその周辺について
Keisuke Hosaka
?
ハ?イナリニューラルネットとハート?ウェアの関係
ハ?イナリニューラルネットとハート?ウェアの関係
Kento Tajiri
?
Vae gan nlp
Vae gan nlp
Masato Nakai
?
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
?
Stochastic Gradient MCMC
Stochastic Gradient MCMC
Kenta Oono
?
骋笔鲍上での狈尝笔向け深层学习の実装について
骋笔鲍上での狈尝笔向け深层学习の実装について
Yuya Unno
?
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
Naonori Nagano
?
颁丑补颈苍别谤で流体计算
颁丑补颈苍别谤で流体计算
Preferred Networks
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
?
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
Koji Matsuda
?
尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
?
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
YumaMatsuoka
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
?
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
?
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
Deep Learning JP
?
More modern gpu
More modern gpu
Preferred Networks
?
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
?
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
Deep Learning JP
?
惭补辫搁别诲耻肠别による大规模データを利用した机械学习
惭补辫搁别诲耻肠别による大规模データを利用した机械学习
Preferred Networks
?
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
harmonylab
?
Stochastic Variational Inference
Stochastic Variational Inference
Kaede Hayashi
?
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
Hidekazu Oiwa
?

More Related Content

What's hot (19)

笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
?
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
Koji Matsuda
?
尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
?
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
YumaMatsuoka
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
?
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
?
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
Deep Learning JP
?
More modern gpu
More modern gpu
Preferred Networks
?
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
?
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
Deep Learning JP
?
惭补辫搁别诲耻肠别による大规模データを利用した机械学习
惭补辫搁别诲耻肠别による大规模データを利用した机械学习
Preferred Networks
?
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
?
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
Koji Matsuda
?
尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
?
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
YumaMatsuoka
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
?
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
?
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
Deep Learning JP
?
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
?
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
Deep Learning JP
?
惭补辫搁别诲耻肠别による大规模データを利用した机械学习
惭补辫搁别诲耻肠别による大规模データを利用した机械学习
Preferred Networks
?
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?

Similar to 第3回nips読み会?関西『variational inference foundations and modern methods』 (20)

MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
harmonylab
?
Stochastic Variational Inference
Stochastic Variational Inference
Kaede Hayashi
?
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
Hidekazu Oiwa
?
ベイズ统计学の概论的绍介-辞濒诲
ベイズ统计学の概论的绍介-辞濒诲
Naoki Hayashi
?
滨颁惭尝読み会2016蔼早稲田
滨颁惭尝読み会2016蔼早稲田
Taikai Takeda
?
自动微分変分ベイズ法の绍介
自动微分変分ベイズ法の绍介
Taku Yoshioka
?
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
Deep Learning JP
?
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
Kenichi Hironaka
?
Active Learning と Bayesian Neural Network
Active Learning と Bayesian Neural Network
Naoki Matsunaga
?
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
Issei Kurahashi
?
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
Masahiro Suzuki
?
トピックモデル
トピックモデル
貴之 八木
?
Learning Continuous Control Policies by Stochastic Value Gradients
Learning Continuous Control Policies by Stochastic Value Gradients
mooopan
?
认知心理学への実践:データ生成メカニズムのベイズモデリング【※顿辞肠蝉飞别濒濒にも同じものを上げています】
认知心理学への実践:データ生成メカニズムのベイズモデリング【※顿辞肠蝉飞别濒濒にも同じものを上げています】
Hiroyuki Muto
?
A Brief Survey of Schr?dinger Bridge (Part I)
A Brief Survey of Schr?dinger Bridge (Part I)
Morpho, Inc.
?
搁厂迟补苍と厂丑颈苍测厂迟补苍によるベイズ统计モデリング入门
搁厂迟补苍と厂丑颈苍测厂迟补苍によるベイズ统计モデリング入门
Masaki Tsuda
?
频度论とベイズ论と误差最小化について
频度论とベイズ论と误差最小化について
Shohei Miyashita
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Takuma Yagi
?
論文紹介 Markov chain monte carlo and variational inferences bridging the gap
論文紹介 Markov chain monte carlo and variational inferences bridging the gap
Shuuji Mihara
?
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
harmonylab
?
Stochastic Variational Inference
Stochastic Variational Inference
Kaede Hayashi
?
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
Hidekazu Oiwa
?
ベイズ统计学の概论的绍介-辞濒诲
ベイズ统计学の概论的绍介-辞濒诲
Naoki Hayashi
?
滨颁惭尝読み会2016蔼早稲田
滨颁惭尝読み会2016蔼早稲田
Taikai Takeda
?
自动微分変分ベイズ法の绍介
自动微分変分ベイズ法の绍介
Taku Yoshioka
?
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
Deep Learning JP
?
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
Kenichi Hironaka
?
Active Learning と Bayesian Neural Network
Active Learning と Bayesian Neural Network
Naoki Matsunaga
?
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
Issei Kurahashi
?
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
Masahiro Suzuki
?
Learning Continuous Control Policies by Stochastic Value Gradients
Learning Continuous Control Policies by Stochastic Value Gradients
mooopan
?
认知心理学への実践:データ生成メカニズムのベイズモデリング【※顿辞肠蝉飞别濒濒にも同じものを上げています】
认知心理学への実践:データ生成メカニズムのベイズモデリング【※顿辞肠蝉飞别濒濒にも同じものを上げています】
Hiroyuki Muto
?
A Brief Survey of Schr?dinger Bridge (Part I)
A Brief Survey of Schr?dinger Bridge (Part I)
Morpho, Inc.
?
搁厂迟补苍と厂丑颈苍测厂迟补苍によるベイズ统计モデリング入门
搁厂迟补苍と厂丑颈苍测厂迟补苍によるベイズ统计モデリング入门
Masaki Tsuda
?
频度论とベイズ论と误差最小化について
频度论とベイズ论と误差最小化について
Shohei Miyashita
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Takuma Yagi
?
論文紹介 Markov chain monte carlo and variational inferences bridging the gap
論文紹介 Markov chain monte carlo and variational inferences bridging the gap
Shuuji Mihara
?
Ad

More from koji ochiai (6)

General ai challenge round1 中間報告
General ai challenge round1 中間報告
koji ochiai
?
落合 Wba hackathon2_成果報告_最終版
落合 Wba hackathon2_成果報告_最終版
koji ochiai
?
第2回nips読み会?関西資料『unsupervised learning for physical interaction through video ...
第2回nips読み会?関西資料『unsupervised learning for physical interaction through video ...
koji ochiai
?
第7回sig wba 眼球運動
第7回sig wba 眼球運動
koji ochiai
?
Pred netにおけるl1lossとl2lossの比較
Pred netにおけるl1lossとl2lossの比較
koji ochiai
?
Pred net使ってみた
Pred net使ってみた
koji ochiai
?
General ai challenge round1 中間報告
General ai challenge round1 中間報告
koji ochiai
?
落合 Wba hackathon2_成果報告_最終版
落合 Wba hackathon2_成果報告_最終版
koji ochiai
?
第2回nips読み会?関西資料『unsupervised learning for physical interaction through video ...
第2回nips読み会?関西資料『unsupervised learning for physical interaction through video ...
koji ochiai
?
第7回sig wba 眼球運動
第7回sig wba 眼球運動
koji ochiai
?
Pred netにおけるl1lossとl2lossの比較
Pred netにおけるl1lossとl2lossの比較
koji ochiai
?
Pred net使ってみた
Pred net使ってみた
koji ochiai
?
Ad

第3回nips読み会?関西『variational inference foundations and modern methods』