狠狠撸

狠狠撸Share a Scribd company logo
5
Most read
8
Most read
9
Most read
Pixel Recurrent Neural Networks
ICML2016 読み会 @ ドワンゴ
得居 誠也, Preferred Networks & 東京大学
論文紹介
概要
Pixel Recurrent Neural Networks.
A?ron van den Oord, Nal Kalchbrenner, Koray Kavukcuoglu
(all from Google DeepMind)
ICML2016 のベストペーパー3本のうちのひとつ
-要約-
ピクセル?チャンネル単位の自己回帰型モデル(RNN 言語モデ
ルに似た確率分布)であって並列化によって高速に勾配計算が
できるものを提案し、MNIST, CIFAR-10, ImageNet (32x32,
64x64) で非常に高い対数尤度を達成した
2
画像の生成モデル
? 訓練データ:大量の画像(グレースケールや RGB 画像)
? 各画像は Channel x Height x Width の多次元配列で表される
? タスク:訓練データを生成する分布を推定する
? 確率分布のモデルを考えて、訓練データの生成分布に一番近くなるよ
うなパラメータを推定する
? 対数尤度最大化の問題として解くのが一般的
? 主な目的: (1) 新しいデータの生成 (2) 潜在変数の推定
生成モデル
訓練データ
パラメータ
対数尤度
今日はこちら
3
画像の生成モデル:3つのアプローチ
(昨今流行っているもの、本当はほかにもある)
変分推論(変分 AutoEncoder など)
? 潜在変数 をつかって をモデル化
? だけから学習するのに が必要だが一般に計算困難
? そこで別のモデル をつかってこれを近似する
敵対的生成モデル(Generative Adversarial Nets)
? 潜在変数 をつかって とモデル化
? こうしてできた 全体と真の分布を分別する識別器 を
学習しつつ、識別できなくするように も学習
自己回帰モデル(今日の話)
? 分布を次のように分解:
? 各因子を NN などでモデル化
4
自己回帰モデル
? 対数尤度が直接最大化でき、評価もできるところが良い
? サンプリングが高コストなのが短所
? ナイーブなモデル化では学習も高コスト
→ masking (MADE [Germain+, ICML’15]) によって並列化可能に
画像の生成モデル:3つのアプローチ
長所?短所の比較
変分推論 敵対的生成モデル 自己回帰モデル
訓練方法 変分下界の最大化 min max 交互最適化 対数尤度の最大化
潜在変数の推論 近似分布が得られる あとから学習する必要 N/A
サンプリング 低コスト 低コスト 高コスト
評価方法 変分下界 定量的評価が困難 対数尤度
モデルの設計
生成モデル
推論モデル
生成関数
識別モデル
条件付き分布たくさん
(学習の高速化に要工
夫:本論文の貢献)
5
画像の自己回帰モデル
ピクセルを上から下に、行ごとに左から右に生成
RGB は R → G → B の順に生成
…
Context
R G B
Context
6
提案モデルの基本:制限された結合
? 同じ spatial size のまま深くしていく (チャンネルは RGB のグ
ループに分割) が、context 外からの結合はなくす (masking)
? 2 層目以降では同じ位置の同じチャンネルの入力は見ても良い
…
R
G
B
R features
G features
B features
R features
G features
B features
1 層目
(mask A)
2 層目以降
(mask B)
出力
(mask B)
R
G
B
cf. MADE [Germain+, ICML’15] 7
提案モデル1:PixelCNN
各レイヤーは、カーネルの上半分だけ使う 2D convolution
普通の 2D convolution と同じく、位置ごとにパラメータは共通
? 尤度計算は高速(普通の ConvNet と同じくらい)
? Context をフルに使えない、スケール依存
入力 出力
8
提案モデル2:PixelRNN (Row LSTM)
各行ごとに上から下へ 1D Convolution + LSTM
1D Convolution+LSTM なので、位置ごとにパラメータは共通
? 上方向の Context をフルに使える
? 利用可能な Context をまだすべて使えない
入力 出力
9
提案モデル3:PixelRNN (Diagonal BiLSTM)
2D LSTM を 左→右 と 右→左 の両方向に流す
1D convolution を使った高速化テクニックがある (次スライド)
? Context をフルに扱える
? 計算コストは少し高い
入力 出力
10
Diagonal BiLSTM の実装
入力
…
ずらした入力
…
各行を 1 pixel ずつずらす
ずらした入力
…
カーネルサイズ 2 の
1D convolutional LSTM を
左から右にかけていくのと等価
11
出力:ピクセルRGBの 256 値分類
最終層では、実数でピクセル値を予測するのではなく、RGB の
各値を 0 – 255 の 256 値の中から一つ予測する(多クラス分類)
よって最終層は Softmax。
2 つの問題を解決:
? 画像の分布をガウシアン等でモデル化する場合の問題点だった
「ボケた画像を生成しやすい」問題の回避
? ガウシアン等ではモデル化できない多峰性分布を表せる
ピクセル値の大小に関する情報は一切いれていない
→ データが多ければ問題ない
12
256-way softmax の出力例
? 大小関係の情報を入れなくてもなめらかな分布が得られる
? 0 や 255 が出やすい、というような多峰性を獲得
? 区間 [0, 255] の外の値を決して出力しないという利点もある
13
Residual Block を使った階層化
? PixelCNN や PixelRNN を深くするときに Residual Block を使う
? PixelRNN の場合、後ろにだけ projection layer を入れている
14
最終的なアーキテクチャ
MNIST: 7 レイヤー (Diag. BiLSTM)
CIFAR-10: PixelCNN=15 レイヤー, PixelRNN=12 レイヤー
ImageNet (32x32): 12 レイヤー (Row LSTM)
ImageNet (64x64): 4 レイヤー (Row LSTM, no residual)
15
実験
Binarized MNIST
? 手書き文字データセット
? 過去手法との比較のために実施。二値画像。
CIFAR-10
? 32x32 のカラー画像データセット(訓練データ 50,000 枚)
ILSVRC (ImageNet)
? 大規模画像認識コンペのデータセット、約 128 万枚
? 今回は 32x32, 64x64 に縮小したものを使用
16
実験結果:負対数尤度の比較
17
実験結果:CIFAR-10 生成例
18
実験結果:ImageNet 32x32 生成例
19
実験結果:ImageNet 64x64 (multi-scale)
半分のサイズの画像を生成してから、それで条件付けて大きな
画像を生成する → 対数尤度はあまり変わらないが大域的により
整合性のある画像が生成できるようになった 20
まとめ
? GAN に対する DCGAN のような感じで、自己回帰モデルにお
ける画像生成のモデル化を提案した
? 学習時には各条件付き分布を並列に計算することができる
? MNIST, CIFAR-10 で SOTA な対数尤度を達成
? 今までやられていなかった ImageNet での尤度評価も実施
? DCGAN などと competitive な画像生成ができている
? GAN と違い定量的な評価が可能なのが強み
? VAE と違い対数尤度を正確に計算できるのが強み
? これらと違い 1 pixel ずつ生成しないといけない(生成時は計
算が並列化しづらく遅い、はず)のが弱点
21

Recommended

深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
贰尝叠翱型痴础贰のダメなところ
贰尝叠翱型痴础贰のダメなところ
KCS Keio Computer Society
?
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
Deep Learning JP
?
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
?
数学カフェ 確率?統計?機械学習回 「速習 確率?統計」
数学カフェ 確率?統計?機械学習回 「速習 確率?統計」
Ken'ichi Matsui
?
骋础狈(と强化学习との関係)
骋础狈(と强化学习との関係)
Masahiro Suzuki
?
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision
Deep Learning JP
?
叠贰搁罢入门
叠贰搁罢入门
Ken'ichi Matsui
?
実装レベルで学ぶ痴蚕痴础贰
実装レベルで学ぶ痴蚕痴础贰
ぱんいち すみもと
?
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
?
颁辞苍惫狈别迟の歴史と搁别蝉狈别迟亜种、ヘ?ストフ?ラクティス
颁辞苍惫狈别迟の歴史と搁别蝉狈别迟亜种、ヘ?ストフ?ラクティス
Yusuke Uchida
?
【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习
cvpaper. challenge
?
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
?
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Hideki Tsunashima
?
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
?
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
?
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
?
顿狈狈の曖昧性に関する研究动向
顿狈狈の曖昧性に関する研究动向
Naoki Matsunaga
?
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
Deep Learning JP
?
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
?
Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩
Hiroto Honda
?
摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习
Deep Learning JP
?
Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1
Takuma Yagi
?
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Deep Learning JP
?
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Kento Doi
?
[DL輪読会]The Neural Process Family?Neural Processes関連の実装を読んで動かしてみる?
[DL輪読会]The Neural Process Family?Neural Processes関連の実装を読んで動かしてみる?
Deep Learning JP
?
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics
?
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
?
Icml読み会 deep speech2
Icml読み会 deep speech2
Jiro Nishitoba
?
滨颁惭尝2016読み会 概要绍介
滨颁惭尝2016読み会 概要绍介
Kohei Hayashi
?

More Related Content

What's hot (20)

実装レベルで学ぶ痴蚕痴础贰
実装レベルで学ぶ痴蚕痴础贰
ぱんいち すみもと
?
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
?
颁辞苍惫狈别迟の歴史と搁别蝉狈别迟亜种、ヘ?ストフ?ラクティス
颁辞苍惫狈别迟の歴史と搁别蝉狈别迟亜种、ヘ?ストフ?ラクティス
Yusuke Uchida
?
【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习
cvpaper. challenge
?
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
?
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Hideki Tsunashima
?
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
?
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
?
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
?
顿狈狈の曖昧性に関する研究动向
顿狈狈の曖昧性に関する研究动向
Naoki Matsunaga
?
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
Deep Learning JP
?
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
?
Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩
Hiroto Honda
?
摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习
Deep Learning JP
?
Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1
Takuma Yagi
?
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Deep Learning JP
?
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Kento Doi
?
[DL輪読会]The Neural Process Family?Neural Processes関連の実装を読んで動かしてみる?
[DL輪読会]The Neural Process Family?Neural Processes関連の実装を読んで動かしてみる?
Deep Learning JP
?
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics
?
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
?
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
?
颁辞苍惫狈别迟の歴史と搁别蝉狈别迟亜种、ヘ?ストフ?ラクティス
颁辞苍惫狈别迟の歴史と搁别蝉狈别迟亜种、ヘ?ストフ?ラクティス
Yusuke Uchida
?
【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习
cvpaper. challenge
?
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
?
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Hideki Tsunashima
?
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
?
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
?
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
?
顿狈狈の曖昧性に関する研究动向
顿狈狈の曖昧性に関する研究动向
Naoki Matsunaga
?
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
Deep Learning JP
?
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
?
Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩
Hiroto Honda
?
摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习
Deep Learning JP
?
Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1
Takuma Yagi
?
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Deep Learning JP
?
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Kento Doi
?
[DL輪読会]The Neural Process Family?Neural Processes関連の実装を読んで動かしてみる?
[DL輪読会]The Neural Process Family?Neural Processes関連の実装を読んで動かしてみる?
Deep Learning JP
?
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics
?
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
?

Viewers also liked (20)

Icml読み会 deep speech2
Icml読み会 deep speech2
Jiro Nishitoba
?
滨颁惭尝2016読み会 概要绍介
滨颁惭尝2016読み会 概要绍介
Kohei Hayashi
?
Meta-Learning with Memory Augmented Neural Network
Meta-Learning with Memory Augmented Neural Network
Yusuke Watanabe
?
Estimating structured vector autoregressive models
Estimating structured vector autoregressive models
Akira Tanimoto
?
Dropout Distillation
Dropout Distillation
Shotaro Sano
?
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
Takuya Akiba
?
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
?
Pixel Recurrent Neural Networks
Pixel Recurrent Neural Networks
neouyghur
?
顿别别辫濒别补谤苍颈苍驳轮読会
顿别别辫濒别补谤苍颈苍驳轮読会
正志 坪坂
?
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
Yusuke Iwasawa
?
[Dl輪読会]video pixel networks
[Dl輪読会]video pixel networks
Deep Learning JP
?
Variational AutoEncoder
Variational AutoEncoder
Kazuki Nitta
?
[DLHacks] DLHacks説明資料
[DLHacks] DLHacks説明資料
Deep Learning JP
?
GTC 2017 基調講演からディープラーニング関連情報のご紹介
GTC 2017 基調講演からディープラーニング関連情報のご紹介
NVIDIA Japan
?
贬笔颁と础滨をつなぐ骋笔鲍クラウド
贬笔颁と础滨をつなぐ骋笔鲍クラウド
HPC Systems Inc.
?
Chainer v2 alpha
Chainer v2 alpha
Seiya Tokui
?
GTC17 NVIDIA News
GTC17 NVIDIA News
Kuninobu SaSaki
?
NVIDIA GPU 技術最新情報
NVIDIA GPU 技術最新情報
IDC Frontier
?
Facebookの人工知能アルコ?リス?ム「memory networks」について調へ?てみた
Facebookの人工知能アルコ?リス?ム「memory networks」について調へ?てみた
株式会社メタップスホールディングス
?
GTC 2017 さらに発展する AI 革命
GTC 2017 さらに発展する AI 革命
NVIDIA Japan
?
Icml読み会 deep speech2
Icml読み会 deep speech2
Jiro Nishitoba
?
滨颁惭尝2016読み会 概要绍介
滨颁惭尝2016読み会 概要绍介
Kohei Hayashi
?
Meta-Learning with Memory Augmented Neural Network
Meta-Learning with Memory Augmented Neural Network
Yusuke Watanabe
?
Estimating structured vector autoregressive models
Estimating structured vector autoregressive models
Akira Tanimoto
?
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
Takuya Akiba
?
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
?
Pixel Recurrent Neural Networks
Pixel Recurrent Neural Networks
neouyghur
?
顿别别辫濒别补谤苍颈苍驳轮読会
顿别别辫濒别补谤苍颈苍驳轮読会
正志 坪坂
?
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
Yusuke Iwasawa
?
[Dl輪読会]video pixel networks
[Dl輪読会]video pixel networks
Deep Learning JP
?
Variational AutoEncoder
Variational AutoEncoder
Kazuki Nitta
?
[DLHacks] DLHacks説明資料
[DLHacks] DLHacks説明資料
Deep Learning JP
?
GTC 2017 基調講演からディープラーニング関連情報のご紹介
GTC 2017 基調講演からディープラーニング関連情報のご紹介
NVIDIA Japan
?
贬笔颁と础滨をつなぐ骋笔鲍クラウド
贬笔颁と础滨をつなぐ骋笔鲍クラウド
HPC Systems Inc.
?
NVIDIA GPU 技術最新情報
NVIDIA GPU 技術最新情報
IDC Frontier
?
GTC 2017 さらに発展する AI 革命
GTC 2017 さらに発展する AI 革命
NVIDIA Japan
?

Similar to 論文紹介 Pixel Recurrent Neural Networks (20)

Deep Learningの基礎と応用
Deep Learningの基礎と応用
Seiya Tokui
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
?
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...
Deep Learning JP
?
CVPR2017 参加報告 速報版 本会議 4日目
CVPR2017 参加報告 速報版 本会議 4日目
Atsushi Hashimoto
?
Convolutional Neural Networks のトレンド @WBAFLカシ?ュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカシ?ュアルトーク#2
Daiki Shimada
?
Deep residual learning for image recognition
Deep residual learning for image recognition
禎晃 山崎
?
Deep Learningによる画像認識革命 ー歴史?最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史?最新理論から実践応用までー
nlab_utokyo
?
Dl hacks paperreading_20150527
Dl hacks paperreading_20150527
Makoto Kawano
?
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
LUT-Network Revision2
LUT-Network Revision2
ryuz88
?
Tutorial-DeepLearning-PCSJ-IMPS2016
Tutorial-DeepLearning-PCSJ-IMPS2016
Takayoshi Yamashita
?
ae-10. 中間まとめ(ディープラーニング)
ae-10. 中間まとめ(ディープラーニング)
kunihikokaneko1
?
Recurrent Neural Networks
Recurrent Neural Networks
Seiya Tokui
?
【CVPR 2020 メタサーベイ】Neural Generative Models
【CVPR 2020 メタサーベイ】Neural Generative Models
cvpaper. challenge
?
SPADE :Semantic Image Synthesis with Spatially-Adaptive Normalization
SPADE :Semantic Image Synthesis with Spatially-Adaptive Normalization
Tenki Lee
?
「機械学習とは?」から始める Deep learning実践入門
「機械学習とは?」から始める Deep learning実践入門
Hideto Masuoka
?
20190831 3 d_inaba_final
20190831 3 d_inaba_final
DaikiInaba
?
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
atsushi061452
?
Deep Learningの基礎と応用
Deep Learningの基礎と応用
Seiya Tokui
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
?
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...
Deep Learning JP
?
CVPR2017 参加報告 速報版 本会議 4日目
CVPR2017 参加報告 速報版 本会議 4日目
Atsushi Hashimoto
?
Convolutional Neural Networks のトレンド @WBAFLカシ?ュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカシ?ュアルトーク#2
Daiki Shimada
?
Deep residual learning for image recognition
Deep residual learning for image recognition
禎晃 山崎
?
Deep Learningによる画像認識革命 ー歴史?最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史?最新理論から実践応用までー
nlab_utokyo
?
Dl hacks paperreading_20150527
Dl hacks paperreading_20150527
Makoto Kawano
?
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
LUT-Network Revision2
LUT-Network Revision2
ryuz88
?
Tutorial-DeepLearning-PCSJ-IMPS2016
Tutorial-DeepLearning-PCSJ-IMPS2016
Takayoshi Yamashita
?
ae-10. 中間まとめ(ディープラーニング)
ae-10. 中間まとめ(ディープラーニング)
kunihikokaneko1
?
Recurrent Neural Networks
Recurrent Neural Networks
Seiya Tokui
?
【CVPR 2020 メタサーベイ】Neural Generative Models
【CVPR 2020 メタサーベイ】Neural Generative Models
cvpaper. challenge
?
SPADE :Semantic Image Synthesis with Spatially-Adaptive Normalization
SPADE :Semantic Image Synthesis with Spatially-Adaptive Normalization
Tenki Lee
?
「機械学習とは?」から始める Deep learning実践入門
「機械学習とは?」から始める Deep learning実践入門
Hideto Masuoka
?
20190831 3 d_inaba_final
20190831 3 d_inaba_final
DaikiInaba
?
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
atsushi061452
?

More from Seiya Tokui (20)

Chainer/CuPy v5 and Future (Japanese)
Chainer/CuPy v5 and Future (Japanese)
Seiya Tokui
?
Chainer v3
Chainer v3
Seiya Tokui
?
Chainer v2 and future dev plan
Chainer v2 and future dev plan
Seiya Tokui
?
Learning stochastic neural networks with Chainer
Learning stochastic neural networks with Chainer
Seiya Tokui
?
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
?
Introduction to Chainer
Introduction to Chainer
Seiya Tokui
?
Chainer Update v1.8.0 -> v1.10.0+
Chainer Update v1.8.0 -> v1.10.0+
Seiya Tokui
?
Differences of Deep Learning Frameworks
Differences of Deep Learning Frameworks
Seiya Tokui
?
Overview of Chainer and Its Features
Overview of Chainer and Its Features
Seiya Tokui
?
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
?
Chainer Development Plan 2015/12
Chainer Development Plan 2015/12
Seiya Tokui
?
Towards Chainer v1.5
Towards Chainer v1.5
Seiya Tokui
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
論文紹介 Compressing Neural Networks with the Hashing Trick
論文紹介 Compressing Neural Networks with the Hashing Trick
Seiya Tokui
?
深层学习フレームワーク颁丑补颈苍别谤の绍介と贵笔骋础への期待
深层学习フレームワーク颁丑补颈苍别谤の绍介と贵笔骋础への期待
Seiya Tokui
?
Introduction to Chainer: A Flexible Framework for Deep Learning
Introduction to Chainer: A Flexible Framework for Deep Learning
Seiya Tokui
?
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
Seiya Tokui
?
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?
Deep Learning技術の今
Deep Learning技術の今
Seiya Tokui
?
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
Seiya Tokui
?
Chainer/CuPy v5 and Future (Japanese)
Chainer/CuPy v5 and Future (Japanese)
Seiya Tokui
?
Chainer v2 and future dev plan
Chainer v2 and future dev plan
Seiya Tokui
?
Learning stochastic neural networks with Chainer
Learning stochastic neural networks with Chainer
Seiya Tokui
?
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
?
Introduction to Chainer
Introduction to Chainer
Seiya Tokui
?
Chainer Update v1.8.0 -> v1.10.0+
Chainer Update v1.8.0 -> v1.10.0+
Seiya Tokui
?
Differences of Deep Learning Frameworks
Differences of Deep Learning Frameworks
Seiya Tokui
?
Overview of Chainer and Its Features
Overview of Chainer and Its Features
Seiya Tokui
?
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
?
Chainer Development Plan 2015/12
Chainer Development Plan 2015/12
Seiya Tokui
?
Towards Chainer v1.5
Towards Chainer v1.5
Seiya Tokui
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
論文紹介 Compressing Neural Networks with the Hashing Trick
論文紹介 Compressing Neural Networks with the Hashing Trick
Seiya Tokui
?
深层学习フレームワーク颁丑补颈苍别谤の绍介と贵笔骋础への期待
深层学习フレームワーク颁丑补颈苍别谤の绍介と贵笔骋础への期待
Seiya Tokui
?
Introduction to Chainer: A Flexible Framework for Deep Learning
Introduction to Chainer: A Flexible Framework for Deep Learning
Seiya Tokui
?
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
Seiya Tokui
?
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?
Deep Learning技術の今
Deep Learning技術の今
Seiya Tokui
?
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
Seiya Tokui
?

論文紹介 Pixel Recurrent Neural Networks