狠狠撸

狠狠撸Share a Scribd company logo
VAE+GAN Controllable Text Generation
2017/03/24
mabonki0725
Contents and  Self-introduction
? Contents
1.変分法(Variational Bayes)の説明
2.VAE(Variational Auto-Encoder)論文の説明
3.DCGAN(Deep CNN Generative Advance Network)の説明
4.Conditional GANの説明
5.VAE+GANを使った
 Controllable Text Generation論文の説明
? 自己紹介
– 統計数理研究所 機械学習ゼミ所属
– 都立産業技術大学院 創造技術学科 学生
– 金融機関でAIモデルを構築
1.変分法(Variational Bayes) from PRML
Lower Band
PRML
MAX
ZERO
Z:latent value
一般的にはMCMCでθを解く
変分法(Variational Bayes) Proof
? ? ? ?
? ?
? ?
? ?
? ?
? ?
? ?
? ?
? ?
? ?
? ?
? ?
? ?
? ?? ?
? ? )()()()|(log)|(log
)|(log)()|(log
)(
)|,(
)|,(
)|()(
log)|(log
)(
|,
log
)|,(
)|()(
log)()|(log
|,
log
)|(
|,
log)()|(log
|,
log
),|(
log)()|(log
)(
)|,(
log
,|
log)()|(log
Pr
,||)|(log
xFxFzqxpxp
xpzqxp
zq
zxp
xzp
xpzq
zqxp
zq
zxp
xzp
xpzq
zqxp
zq
zxp
xpzq
xzp
zqxp
zq
zxp
zq
xzp
zqxp
zq
zxp
zq
zq
xzp
zqxp
oof
qLpqKLxp
z
z
z
z
z
z
zz
??
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
??
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
?
??
?
?
?
?
?
?
?
?
?
?
?
?
?
??
??
?
?
?
?
?
?
??
?  ??
??
?
?
?
?
?
?
?
?
?
?
?
?
??
?
??
?
??
2.VAE(Variational AutoEncoder)
VAEはKingmaが提唱
? データxを生成している隠れ
変数zを確率密度関数   
qΦ(z/x)で近似する方法
? qΦ(z/x)は変分法で近似する
? 変分近似はニューロ?モデ
ルを適応する
https://arxiv.org/abs/1312.6114
Auto-Encoding Variational Bayes
proof (2) →(3)
proof (2) from PRML(10.3)
下限のMLP
PRML(10.1)
loss Function on VAE
Encoder Decoder
when
MAX
networkでθφを
改善してErrorを
最小化する
ZERO
MIN
VAE by Neuro Model
VEA Program by Chainer (1)
VEA Program by Chainer(2)
Result of VAE by MNIST
3.DCGAN Program by Chainer(1)
Loss
Loss Func
Training
Generator
Discriminator
object of GAN
softplus=log{1+exp(D)}
GCGAN Program by Chainer(2)
Generator Discriminator
Result of DCGAN
4.Conditional(Controllable) Gan
求めたいパターンの架空の画像を生成する
Condition cImage x
Encode cEncode x
Generator
Discriminator
Condition
Image
Conditional GAN
5.Controllable Text Generation
style Label
sentiment(pos/nega)
tense
VAE
unsupervised
model
GAN
semi-supervised
model
Annealing LSTM for learning
Annealing LSTM to mitigate peak weight on Discreate model
16 LSTM
Generator Paramater by Loss Function
Discriminater Parameter by Loss Function
Real Example
Loss Function
Generated Example
Loss Function
Integrate Loss Function
min entorpy regulator for noize
Disciminator
Training Data and accuracy
use data set content size
Corpus IMDB movie reviews of max
16 words
1.4M
Sentim
ent
SST-full labeled sentence with
annotations
2737
SST-small labeled sentence 250
Lexicon sentiment labeled word 2700
IMDB For train/dev/test 16K
Tense TimeBank tense labeled sentences 5250
Training Data
Classification accuracy
Alogorithm for Parameters
of VAE Generater Discriminater
wake proc sleep proc
VAE gen-dis
Input unlabeled sentence
Input labeled sentence
z~ VAE c~p(c)
c~Discriminator(X)
Xt~LSTM(z,c,Xt-1)
Expriments
Fixed Style Free Style
nega
pos
nega
pos
nega
pos
nega
pos
nega
pos
6.Summary
まとめ
? 現象xから原因zの分布p(z|x)はベイズ統計で求めてい
たが、DeepLearningのVAEやGANで可能になった。
? DeepLearningモデルは対で構造なので実装が簡単
– VAE:Encoder - Decoder
– GAN:Generator - Discriminator
? 求めたい(Contrallable)画像や文章生成が可能になった。
– 画像:Conditional GAN
– 文書:Controlable Text Generation
Ad

Recommended

第3回nips読み会?関西『variational inference foundations and modern methods』
第3回nips読み会?関西『variational inference foundations and modern methods』
koji ochiai
?
贬测辫别谤辞辫迟とその周辺について
贬测辫别谤辞辫迟とその周辺について
Keisuke Hosaka
?
ハ?イナリニューラルネットとハート?ウェアの関係
ハ?イナリニューラルネットとハート?ウェアの関係
Kento Tajiri
?
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
?
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
Naonori Nagano
?
骋笔鲍上での狈尝笔向け深层学习の実装について
骋笔鲍上での狈尝笔向け深层学习の実装について
Yuya Unno
?
Stochastic Gradient MCMC
Stochastic Gradient MCMC
Kenta Oono
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
?
颁丑补颈苍别谤で流体计算
颁丑补颈苍别谤で流体计算
Preferred Networks
?
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
?
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
Koji Matsuda
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
?
尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification
Deep Learning JP
?
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
?
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
YumaMatsuoka
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)
Takanori Ogata
?
LT@Chainer Meetup
LT@Chainer Meetup
Shunta Saito
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Deep Learning JP
?
More modern gpu
More modern gpu
Preferred Networks
?
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
?
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
?
机械学习の全般について 4
机械学习の全般について 4
Masato Nakai
?
础颈论文サイト
础颈论文サイト
Masato Nakai
?
粒子フィルターによる自动运転
粒子フィルターによる自动运転
Masato Nakai
?

More Related Content

What's hot (19)

Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
?
颁丑补颈苍别谤で流体计算
颁丑补颈苍别谤で流体计算
Preferred Networks
?
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
?
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
Koji Matsuda
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
?
尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification
Deep Learning JP
?
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
?
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
YumaMatsuoka
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)
Takanori Ogata
?
LT@Chainer Meetup
LT@Chainer Meetup
Shunta Saito
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Deep Learning JP
?
More modern gpu
More modern gpu
Preferred Networks
?
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
?
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
?
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
?
颁丑补颈苍别谤で流体计算
颁丑补颈苍别谤で流体计算
Preferred Networks
?
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
?
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
Koji Matsuda
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
?
尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification
Deep Learning JP
?
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
?
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
YumaMatsuoka
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)
Takanori Ogata
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Deep Learning JP
?
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
?
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
?

Viewers also liked (20)

机械学习の全般について 4
机械学习の全般について 4
Masato Nakai
?
础颈论文サイト
础颈论文サイト
Masato Nakai
?
粒子フィルターによる自动运転
粒子フィルターによる自动运転
Masato Nakai
?
奥辞谤诲2惫别肠の理论背景
奥辞谤诲2惫别肠の理论背景
Masato Nakai
?
全脳アーキテクチャ若手の会 強化学習
全脳アーキテクチャ若手の会 強化学習
kwp_george
?
Deep forest
Deep forest
naoto moriyama
?
Guide for program Implement for PRML
Guide for program Implement for PRML
Masato Nakai
?
滨肠辫による原画像推定
滨肠辫による原画像推定
Masato Nakai
?
Inference Bayesian Network from data
Inference Bayesian Network from data
Masato Nakai
?
Alpha gor 2
Alpha gor 2
Masato Nakai
?
Chainer meetup03
Chainer meetup03
KOTARO SETOYAMA
?
Differentiable neural conputers
Differentiable neural conputers
naoto moriyama
?
ニューラルチューリンク?マシン入门
ニューラルチューリンク?マシン入门
naoto moriyama
?
Decoupled Neural Interfaces輪読資料
Decoupled Neural Interfaces輪読資料
Reiji Hatsugai
?
自然言语処理 Word2vec
自然言语処理 Word2vec
naoto moriyama
?
自然言语処理
自然言语処理
naoto moriyama
?
颁丑补颈苍别谤を使って白黒アニメの彩色実験をしてみた
颁丑补颈苍别谤を使って白黒アニメの彩色実験をしてみた
Kubota Eijiro
?
On the benchmark of Chainer
On the benchmark of Chainer
Kenta Oono
?
深層学習ライブラリの環境問題Chainer Meetup2016 07-02
深層学習ライブラリの環境問題Chainer Meetup2016 07-02
Yuta Kashino
?
机械学习の全般について 4
机械学习の全般について 4
Masato Nakai
?
础颈论文サイト
础颈论文サイト
Masato Nakai
?
粒子フィルターによる自动运転
粒子フィルターによる自动运転
Masato Nakai
?
奥辞谤诲2惫别肠の理论背景
奥辞谤诲2惫别肠の理论背景
Masato Nakai
?
全脳アーキテクチャ若手の会 強化学習
全脳アーキテクチャ若手の会 強化学習
kwp_george
?
Guide for program Implement for PRML
Guide for program Implement for PRML
Masato Nakai
?
滨肠辫による原画像推定
滨肠辫による原画像推定
Masato Nakai
?
Inference Bayesian Network from data
Inference Bayesian Network from data
Masato Nakai
?
Differentiable neural conputers
Differentiable neural conputers
naoto moriyama
?
ニューラルチューリンク?マシン入门
ニューラルチューリンク?マシン入门
naoto moriyama
?
Decoupled Neural Interfaces輪読資料
Decoupled Neural Interfaces輪読資料
Reiji Hatsugai
?
自然言语処理 Word2vec
自然言语処理 Word2vec
naoto moriyama
?
颁丑补颈苍别谤を使って白黒アニメの彩色実験をしてみた
颁丑补颈苍别谤を使って白黒アニメの彩色実験をしてみた
Kubota Eijiro
?
On the benchmark of Chainer
On the benchmark of Chainer
Kenta Oono
?
深層学習ライブラリの環境問題Chainer Meetup2016 07-02
深層学習ライブラリの環境問題Chainer Meetup2016 07-02
Yuta Kashino
?
Ad

Similar to Vae gan nlp (20)

Controllable Text Generation (ICML 2017 under review)
Controllable Text Generation (ICML 2017 under review)
Toru Fujino
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
深层生成モデルと世界モデル(2020/11/20版)
深层生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
?
Variational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text Generation
harmonylab
?
Generative Deep Learning #01
Generative Deep Learning #01
逸人 米田
?
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
Masahiro Suzuki
?
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity natural
KCS Keio Computer Society
?
Nexus network connecting the preceding and the following in dialogue generation
Nexus network connecting the preceding and the following in dialogue generation
OgataTomoya
?
Deep Learning Chap. 12: Applications
Deep Learning Chap. 12: Applications
Shion Honda
?
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
Deep Learning JP
?
Deep Learning 20章 輪講会 資料
Deep Learning 20章 輪講会 資料
sorashido
?
【参考文献追加】20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
【参考文献追加】20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
Preferred Networks
?
20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
Preferred Networks
?
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言语処理」(一部文字が欠けてます)
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言语処理」(一部文字が欠けてます)
Hitomi Yanaka
?
Deep nlp 4.2-4.3_0309
Deep nlp 4.2-4.3_0309
cfiken
?
ベイズと深层学习について
ベイズと深层学习について
Tomohiro Mimura
?
骋础狈の基本
骋础狈の基本
sohtakannan
?
Deep Learningの基礎と応用
Deep Learningの基礎と応用
Seiya Tokui
?
20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory
Shinagawa Seitaro
?
Deep learning for acoustic modeling in parametric speech generation
Deep learning for acoustic modeling in parametric speech generation
Yuki Saito
?
Controllable Text Generation (ICML 2017 under review)
Controllable Text Generation (ICML 2017 under review)
Toru Fujino
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
深层生成モデルと世界モデル(2020/11/20版)
深层生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
?
Variational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text Generation
harmonylab
?
Generative Deep Learning #01
Generative Deep Learning #01
逸人 米田
?
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
Masahiro Suzuki
?
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity natural
KCS Keio Computer Society
?
Nexus network connecting the preceding and the following in dialogue generation
Nexus network connecting the preceding and the following in dialogue generation
OgataTomoya
?
Deep Learning Chap. 12: Applications
Deep Learning Chap. 12: Applications
Shion Honda
?
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
Deep Learning JP
?
Deep Learning 20章 輪講会 資料
Deep Learning 20章 輪講会 資料
sorashido
?
【参考文献追加】20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
【参考文献追加】20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
Preferred Networks
?
20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
Preferred Networks
?
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言语処理」(一部文字が欠けてます)
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言语処理」(一部文字が欠けてます)
Hitomi Yanaka
?
Deep nlp 4.2-4.3_0309
Deep nlp 4.2-4.3_0309
cfiken
?
ベイズと深层学习について
ベイズと深层学习について
Tomohiro Mimura
?
Deep Learningの基礎と応用
Deep Learningの基礎と応用
Seiya Tokui
?
20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory
Shinagawa Seitaro
?
Deep learning for acoustic modeling in parametric speech generation
Deep learning for acoustic modeling in parametric speech generation
Yuki Saito
?
Ad

More from Masato Nakai (20)

Padoc_presen4R.pdf
Padoc_presen4R.pdf
Masato Nakai
?
Factor analysis for ml by padoc 6 r
Factor analysis for ml by padoc 6 r
Masato Nakai
?
报酬が殆ど得られない场合の强化学习
报酬が殆ど得られない场合の强化学习
Masato Nakai
?
Padocview anonimous2
Padocview anonimous2
Masato Nakai
?
presentation for padoc
presentation for padoc
Masato Nakai
?
Ai neuro science_pdf
Ai neuro science_pdf
Masato Nakai
?
Deep IRL by C language
Deep IRL by C language
Masato Nakai
?
Open pose時系列解析7
Open pose時系列解析7
Masato Nakai
?
Team ai 3
Team ai 3
Masato Nakai
?
Semi vae memo (2)
Semi vae memo (2)
Masato Nakai
?
Open posedoc
Open posedoc
Masato Nakai
?
Dr.raios papers
Dr.raios papers
Masato Nakai
?
Deep genenergyprobdoc
Deep genenergyprobdoc
Masato Nakai
?
Irs gan doc
Irs gan doc
Masato Nakai
?
Semi vae memo (1)
Semi vae memo (1)
Masato Nakai
?
厂颈蹿迟による特徴点抽出
厂颈蹿迟による特徴点抽出
Masato Nakai
?
End to end training with deep visiomotor
End to end training with deep visiomotor
Masato Nakai
?
机械学习の全般について
机械学习の全般について
Masato Nakai
?
强化学习の汎用化础颈
强化学习の汎用化础颈
Masato Nakai
?
强化学习の汎用化搁辞蝉
强化学习の汎用化搁辞蝉
Masato Nakai
?
Factor analysis for ml by padoc 6 r
Factor analysis for ml by padoc 6 r
Masato Nakai
?
报酬が殆ど得られない场合の强化学习
报酬が殆ど得られない场合の强化学习
Masato Nakai
?
presentation for padoc
presentation for padoc
Masato Nakai
?
Deep IRL by C language
Deep IRL by C language
Masato Nakai
?
Open pose時系列解析7
Open pose時系列解析7
Masato Nakai
?
Deep genenergyprobdoc
Deep genenergyprobdoc
Masato Nakai
?
厂颈蹿迟による特徴点抽出
厂颈蹿迟による特徴点抽出
Masato Nakai
?
End to end training with deep visiomotor
End to end training with deep visiomotor
Masato Nakai
?
机械学习の全般について
机械学习の全般について
Masato Nakai
?
强化学习の汎用化础颈
强化学习の汎用化础颈
Masato Nakai
?
强化学习の汎用化搁辞蝉
强化学习の汎用化搁辞蝉
Masato Nakai
?

Vae gan nlp