狠狠撸

狠狠撸Share a Scribd company logo
Variational Inference:
Foundations and Modern Methods
担当:落合幸治@理化学研究所
第3回nips読み会?関西 2017/3/18(土)
David Blei @Columbia University
Shakir Mohamed @DeepMind
Rajesh Ranganath @Princeton University
NIPS 2016 Tutorial · December 5, 2016
注意
? もしこのスライドを見てわからない点があったら(翻訳ミスの可能
性があるため)以下元資料を確認
? まとめ
https://nips.cc/Conferences/2016/Schedule?showEvent=6199
? Video
https://channel9.msdn.com/Events/Neural-Information-
Processing-Systems-Conference/Neural-Information-Processing-
Systems-Conference-NIPS-2016/Variational-Inference-
Foundations-and-Modern-Methods
? 狠狠撸(PDF)
https://media.nips.cc/Conferences/2016/狠狠撸s/6199-狠狠撸s.pdf
Variational Inference?
一般の推論(最尤推定)
確率的推論?
? 確率的推論を効率的かつ安定に行うための方法の一つ
確率的推論
例:重回帰、ニューラルネット 例:尝顿础、痴础贰
確率的推論?
Variational Inference?
一般の推論(最尤推定)
? 確率的推論を効率的かつ安定に行うための方法の一つ
確率的推論
例:重回帰、ニューラルネット 例:尝顿础、痴础贰
確率的推論
? 推論先の点がつねに一点にさ
だまるとは限らない
? 例:画像の上半分から
下半分を推測→
? 分布の期待値がつねにもっと
も良い結果とは限らない
? 自然画像の期待値(平均値)は
のっぺりした灰色の画像
質問
1. 確率的勾配法(stochastic gradient descent, SGD)とは
何か知っている or 使ったことがある
2. 『パターン認識と機械学習』の9章:混合モデルとEM、
10章:変分推論を読んだことがある
3. Variational Autoencoderという言葉を聞いたことがあ
る
目次
1. 変分推論とは
2. 平均場近似と確率的変分推論
3. 変分下界に対する確率的勾配法
4. 平均場近似を仮定しない変分推論
※オリジナルのチュートリアルに準拠
目次
1. 変分推論とは
2. 平均場近似と確率的変分推論
3. 変分下界に対する確率的勾配法
4. 平均場近似を仮定しない変分推論
※オリジナルのチュートリアルに準拠
? SGDを知っていればここまでは簡単
目次
1. 変分推論とは
2. 平均場近似と確率的変分推論
3. 変分下界に対する確率的勾配法
4. 平均場近似を仮定しない変分推論
※オリジナルのチュートリアルに準拠
? 一番の難所
? PRMLの9章、10章の内容を発展
? VAEの理論的背景がわかる
目次
1. 変分推論とは
2. 平均場近似と確率的変分推論
3. 変分下界に対する確率的勾配法
4. 平均場近似を仮定しない変分推論
※オリジナルのチュートリアルに準拠
? 現代の(2016年以降の)研究
? 事前知識があると少し感動する
1. 変分推論とは
確率的推論を最適化問題として解けるようにする
確率的推論
? 確率モデルとは観測変数?と隠れ変数?の同時分布
?(?, ?)
? 確率モデルがあれば未知変数も事後分布として求められる
? ? ? =
?(?, ?)
? ?, ? ??
? 例えばxを画像zをラベルとすると分類問題がとける
? ほとんどの問題において分母の積分が解けないので近似が必要
変分推定 知りたい真の
条件付き分布
近似分布?で表
現可能な範囲
?上に貼られた
確率分布の空間
歴史
? 変分推定は統計力学のアイディアを確率推定に適用することで
始まりました。おそらく80年代にPetersonとAndersonが平均
場法をニューラルネットで使ったことが始まりです。
? このアイディアはJordan研究室で1990年代に取り上げられ、
Tommi Jaakkola, Lawrence Saul, Zoubin Gharamani によって
多くの確率モデルに一般化されました。
? それと並行してHintonとVan Campがニューラルネットによる
平均場法を開発(1993)。NealとHintonはこのアイディアをEM
法につなげそれがmixture of expertsやHMMなどへ変分法をさ
らに進展させました。
現在
? 現在では変分法における多くの活発な取り組みがあります。大
規模化、簡易化、高速化、正確化、複雑なモデルへの適用と応
用
? 現在の変分推定は多くの領域にまたがっています:確率的プロ
グラミング、強化学習、ニューラルネット、凸最適化、ベイズ
統計、そして広範囲にわたる応用分野。
? このスライドの目的は基礎から始まり、いくつかの最近のアイ
ディアを紹介し、新研究における最前線を知ってもらうことで
す。
2.平均場近似と確率的変分推論
? 平均場近似:最適化をしやすくするためモデルの表現力を落とす
? 確率的変分法:大規模データに対応するため確率的最適化を行う
确率推论の手顺
第3回nips読み会?関西『variational inference  foundations and modern methods』
例:Topic Modeling
大量の文章集合の中から文章のトピックスなどの構造を見つけ出したい!
确率推论の手顺
例:Latent Dirichlet Allocation(LDA)
? トピックは単語の集合
? ドキュメントは複数のト
ピックを特定の比率で混ぜ
合わせたもの(単語の順序
は考えない)
? 単語は特定のトピックから
持ってくる
? 実際に観測できるのはド
キュメントだけ
? 他は事後分布推定
? 注:ドキュメントも潜在変
数も大量にある
?(??????, ???????????, ???????????|?????????)
LDAのグラフィカルモデル
? 仮定を同時分布の因
数分解として表現
? 仮定とデータを組み
合わせて事後分布を
求める
因数分解
确率推论の手顺
事後分布の推定
この積分は(一般に)計算不能 近似
変分推定 知りたい真の
条件付き分布
近似分布?で表
現可能な範囲
?上に貼られた
確率分布の空間
Evidence Lower Bound(ELBO)
? log ? ? の下界
? ELBO最大化はKLダイバージェンスの最小化にな
(なぜそうなるかは3章で説明)
? 最初の項はMAP推定に相当
? 第二項(エントロピー)は?を可能な限り拡散させる
エントロピー
问题の一般化
平均場近似
? 平均場近似は各変数が独立であることを仮定
? “平均場近似”と”各確率変数が共役分布であること”
を仮定すると他の変数を固定した状態で着目してい
る変数を更新するという手順の繰り返しでELBOを最
大化できる
古典的変分推定
確率的変分推定
? 大規模データに
対応
? 確率的勾配法と
同じ発想
? ステップサイズ
系列ρ ?は
Robbins-Monro
conditionsに従う
ものとする(大
まかには徐々に
小さくなってい
くと思っておけ
ば良い)
LDAに対する確率的変分推論
? ドキュメントをサンプル
? 現在のトピック設定に従ってローカルのパラメータを推定する
? ローカルパラメータからトピック設定を仮更新する
? 現在のトピック設定と仮更新したトピック設定で新たなトピッ
ク設定を作る
自動抽出さ
れたトピッ
クと単語
3. 変分下界に対する確率的勾配法
変分下界:確率的機械学習におけるロス関数
なぜELBO最大化=KL最小化?
log ? ? = ? ? + KL(?(?; ?)||?(?|?))
log ? ?
? ?
KL(?(?; ?)||?(?|?))
? ??
PRML9章、10章より補完
変分推定 知りたい真の
条件付き分布
近似分布?で表
現可能な範囲
?上に貼られた
確率分布の空間
変分推定のレシピ
1. モデルを考える ?(?, ?)
2. 潜在変数の近似分布を選ぶ ?(?; ?)
3. ELBOを定式化
? ? = E ?(?;?)[log ? ?, ? ? log? ?: ? ]
4. 期待値(積分)を計算
? ? = ??2
+ log ?: Example
5. 導関数を求める
??? ? = 2?? +
1
?
6. 最適化する
? ?+1 = ? ? + ?? ??? ?
現実は甘くない
? ベイズロジスティック回帰を変分推定しようとした結果(xが入力y
が出力zが回帰係数)
? 期待値が解析的に求められない + 変分係数に関係する値(z)が期待
値の中に残っている = 導関数が求められない
確率的勾配法が使えるよう式を変形
ここが解けない
先に微分 確率的勾配法
式変形
ELBO
Define
ELBOを安定に求めるための方法
Score Function Gradients
Pathwise Gradient
Amortized Inference
汎用的
安定、高速
Score Function Estimator
単純化
再掲
勾配
Likelihood ratio(尤度)またはREINFORCE gradients(強化学習勾配?)
ともよばれる
単純化について補足
nips読み会での議論を踏まえ追加
? ? ??g ?, ? = ? ? ??log? ?; ?
g ?, ? = log? ?, ? ? log ?(?; ?)
= ?(?; ?)??log? ?; ? ??
= ?(?; ?)
?? ? ?; ?
?(?; ?)
??
= ?? ? ?; ? ??
= ?? ? ?; ? ??
= 0
=1
微分と積分の順序交換より
モンテカルロ近似による勾配計算
モンテカルロ近似
Black Box Variational Inference
適用のための条件
? ?(?)からサンプリング可能
? ?? log ?(?; ?)が計算可能
? log ?(?, ?)とlog ?(?)が計算可能
モデル固有の作業がない:汎用的な適用が可能
Black Box Variational Inference
Score Function Estimatorは不安定
確率の低い場所のサンプリングはスコアと分散が大きくなる
コントロール変数を使用することで軽减
Pathwise Estimator
Pathwise Estimator
単純化
分散の比较
ローカル変数の決定は高コスト
各データ点ごとで最適化演算が必要
Amortizing Inference
Amortizing Inference
例:変分オートエンコーダ(痴础贰)
四角は深層ニューラルネットワーク
例:変分オートエンコーダ(痴础贰)
全般的なアドバイス
? もし?(?, ?)が?について微分可能だったら
? リパラメタライゼーションが可能な?を使いなさい
? もし?(?, ?)が?について微分不可能だったら
? コントロール変数ありのScore Functionを使いなさい
? 実験的証拠に基づいてさらに分散を減少させなさい
(意訳:試行錯誤で頑張って分散を下げなさい)
? 全般的に
? 座標ごとにラーニングレートを調節(RMSProp, AdaGrad)
? アニーリング + 温度
? サンプリングを並列化できないか一度考えてみる
Software
4.平均場近似を仮定しない変分推論
平均場近似は極端すぎるので適度に複雑でソコソコ効率的に計算できるも
でるモデルを考える
構造化事後分布近似(Structured Posterior Approximations)
目標:高い近似能力と計算効率の両立
構造化事後分布近似(Structured Posterior Approximations)
目標:高い近似能力と計算効率の両立
Gaussian
Approximate
Posteriors
Autoregressive
distribution
Change-of-
variables
Change-of-
variables
Linear time computation of the determinant and its gradient.
Change-of-
variables
Auxiliary-
variable
Methods
Auxiliary-
variable
Methods
まとめ
Variational Inference:
Foundations and Modern Methods
? VIは複雑なモデルの変量を
近似できる
? 確率的最適化をによって
? 大量のデータにスケー
ルアップできる
? 複雑なモデルに対応で
きる
? 精密かつ柔軟な近似が
可能となる

More Related Content

What's hot (19)

笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
?
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
Koji Matsuda
?
尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
?
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
YumaMatsuoka
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
?
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
?
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
Deep Learning JP
?
More modern gpu
More modern gpuMore modern gpu
More modern gpu
Preferred Networks
?
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
?
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
Deep Learning JP
?
惭补辫搁别诲耻肠别による大规模データを利用した机械学习
惭补辫搁别诲耻肠别による大规模データを利用した机械学习惭补辫搁别诲耻肠别による大规模データを利用した机械学习
惭补辫搁别诲耻肠别による大规模データを利用した机械学习
Preferred Networks
?
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
?
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
Koji Matsuda
?
尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
?
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
YumaMatsuoka
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
?
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
?
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
Deep Learning JP
?
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
?
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
Deep Learning JP
?
惭补辫搁别诲耻肠别による大规模データを利用した机械学习
惭补辫搁别诲耻肠别による大规模データを利用した机械学习惭补辫搁别诲耻肠别による大规模データを利用した机械学习
惭补辫搁别诲耻肠别による大规模データを利用した机械学习
Preferred Networks
?
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?

Similar to 第3回nips読み会?関西『variational inference foundations and modern methods』 (20)

[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
?
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields [DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
Deep Learning JP
?
LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門
Yuichiro Kobayashi
?
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
nocchi_airport
?
深层生成モデルと世界モデル(2020/11/20版)
深层生成モデルと世界モデル(2020/11/20版)深层生成モデルと世界モデル(2020/11/20版)
深层生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
?
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Association for Computational Linguistics
?
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Toru Fujino
?
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処” WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
Hajime Sasaki
?
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Preferred Networks
?
分散型强化学习手法の最近の动向と分散计算フレームワーク搁补测による実装の试み
分散型强化学习手法の最近の动向と分散计算フレームワーク搁补测による実装の试み分散型强化学习手法の最近の动向と分散计算フレームワーク搁补测による実装の试み
分散型强化学习手法の最近の动向と分散计算フレームワーク搁补测による実装の试み
SusumuOTA
?
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
Masahiro Suzuki
?
海鸟の経路予测のための逆强化学习
海鸟の経路予测のための逆强化学习海鸟の経路予测のための逆强化学习
海鸟の経路予测のための逆强化学习
Tsubasa Hirakawa
?
ベイズ统计によるデータ解析
ベイズ统计によるデータ解析ベイズ统计によるデータ解析
ベイズ统计によるデータ解析
Kunihiro Hisatsune
?
Rm20140702 11key
Rm20140702 11keyRm20140702 11key
Rm20140702 11key
youwatari
?
フ?ースティンク?入门
フ?ースティンク?入门フ?ースティンク?入门
フ?ースティンク?入门
Retrieva inc.
?
Direct Sparse Odometryの解説
Direct Sparse Odometryの解説Direct Sparse Odometryの解説
Direct Sparse Odometryの解説
Masaya Kaneko
?
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
tomitomi3 tomitomi3
?
Deep learningbook chap7
Deep learningbook chap7Deep learningbook chap7
Deep learningbook chap7
Shinsaku Kono
?
データ解析入门
データ解析入门データ解析入门
データ解析入门
Takeo Noda
?
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
?
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields [DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
Deep Learning JP
?
LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門
Yuichiro Kobayashi
?
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
nocchi_airport
?
深层生成モデルと世界モデル(2020/11/20版)
深层生成モデルと世界モデル(2020/11/20版)深层生成モデルと世界モデル(2020/11/20版)
深层生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
?
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Association for Computational Linguistics
?
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Toru Fujino
?
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処” WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
Hajime Sasaki
?
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Preferred Networks
?
分散型强化学习手法の最近の动向と分散计算フレームワーク搁补测による実装の试み
分散型强化学习手法の最近の动向と分散计算フレームワーク搁补测による実装の试み分散型强化学习手法の最近の动向と分散计算フレームワーク搁补测による実装の试み
分散型强化学习手法の最近の动向と分散计算フレームワーク搁补测による実装の试み
SusumuOTA
?
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
Masahiro Suzuki
?
海鸟の経路予测のための逆强化学习
海鸟の経路予测のための逆强化学习海鸟の経路予测のための逆强化学习
海鸟の経路予测のための逆强化学习
Tsubasa Hirakawa
?
ベイズ统计によるデータ解析
ベイズ统计によるデータ解析ベイズ统计によるデータ解析
ベイズ统计によるデータ解析
Kunihiro Hisatsune
?
Rm20140702 11key
Rm20140702 11keyRm20140702 11key
Rm20140702 11key
youwatari
?
フ?ースティンク?入门
フ?ースティンク?入门フ?ースティンク?入门
フ?ースティンク?入门
Retrieva inc.
?
Direct Sparse Odometryの解説
Direct Sparse Odometryの解説Direct Sparse Odometryの解説
Direct Sparse Odometryの解説
Masaya Kaneko
?
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
tomitomi3 tomitomi3
?
Deep learningbook chap7
Deep learningbook chap7Deep learningbook chap7
Deep learningbook chap7
Shinsaku Kono
?
データ解析入门
データ解析入门データ解析入门
データ解析入门
Takeo Noda
?

More from koji ochiai (6)

General ai challenge round1 中間報告
General ai challenge round1 中間報告General ai challenge round1 中間報告
General ai challenge round1 中間報告
koji ochiai
?
落合 Wba hackathon2_成果報告_最終版
落合 Wba hackathon2_成果報告_最終版落合 Wba hackathon2_成果報告_最終版
落合 Wba hackathon2_成果報告_最終版
koji ochiai
?
第2回nips読み会?関西資料『unsupervised learning for physical interaction through video ...
第2回nips読み会?関西資料『unsupervised learning for physical interaction through video ...第2回nips読み会?関西資料『unsupervised learning for physical interaction through video ...
第2回nips読み会?関西資料『unsupervised learning for physical interaction through video ...
koji ochiai
?
第7回sig wba 眼球運動
第7回sig wba 眼球運動第7回sig wba 眼球運動
第7回sig wba 眼球運動
koji ochiai
?
Pred netにおけるl1lossとl2lossの比較
Pred netにおけるl1lossとl2lossの比較Pred netにおけるl1lossとl2lossの比較
Pred netにおけるl1lossとl2lossの比較
koji ochiai
?
Pred net使ってみた
Pred net使ってみたPred net使ってみた
Pred net使ってみた
koji ochiai
?
General ai challenge round1 中間報告
General ai challenge round1 中間報告General ai challenge round1 中間報告
General ai challenge round1 中間報告
koji ochiai
?
落合 Wba hackathon2_成果報告_最終版
落合 Wba hackathon2_成果報告_最終版落合 Wba hackathon2_成果報告_最終版
落合 Wba hackathon2_成果報告_最終版
koji ochiai
?
第2回nips読み会?関西資料『unsupervised learning for physical interaction through video ...
第2回nips読み会?関西資料『unsupervised learning for physical interaction through video ...第2回nips読み会?関西資料『unsupervised learning for physical interaction through video ...
第2回nips読み会?関西資料『unsupervised learning for physical interaction through video ...
koji ochiai
?
第7回sig wba 眼球運動
第7回sig wba 眼球運動第7回sig wba 眼球運動
第7回sig wba 眼球運動
koji ochiai
?
Pred netにおけるl1lossとl2lossの比較
Pred netにおけるl1lossとl2lossの比較Pred netにおけるl1lossとl2lossの比較
Pred netにおけるl1lossとl2lossの比較
koji ochiai
?
Pred net使ってみた
Pred net使ってみたPred net使ってみた
Pred net使ってみた
koji ochiai
?

第3回nips読み会?関西『variational inference foundations and modern methods』