狠狠撸

狠狠撸Share a Scribd company logo
GenerativeDeepLearning #01
2020/02/01
about “Generative Deep Learning”
- 2019/06 出版
- 最近の生成モデルのテクニックについて
- DeepLearning のある程度の事前知識を前提
- Part 1 基本となる理論
- DeepLearning
- VAE
- GAN
- Part 2 応用とテクニック
- CycleGAN
- Encoder - Decoder Model
- MuseGAN
- BigGAN
- BERT
- etc
Motivation
- 生成モデルを使用した研究開発において、使用できる知見や実装を貯める
- 従来のモデル(分類問題等)の改善に応用できる生成モデルについて
学習することで、精度の向上を行う
- 知的好奇心
Index (GenerativeDeepLearning)
I. Introduction to Generative Deep Learning
1. Generative Modeling
2. Deep Learning
3. VAE
4. GAN
II. Teaching Machine to Paint, Write, Compose, and Play
5. Paint
6. Write
7. Compose
8. Play
9. The Future of Generative Modeling
10. Conclusion
Index (GenerativeDeepLearning)
I. Introduction to Generative Deep Learning
1. Generative Modeling
2. Deep Learning
3. VAE
4. GAN
II. Teaching Machine to Paint, Write, Compose, and Play
5. Paint
6. Write
7. Compose
8. Play
9. The Future of Generative Modeling
10. Conclusion
Index
- Chapter 1 Generative Modeling
- What Is Generative Modeling
- Probabilistic Generative Models
- The Challenges of Generative Modeling
- Setting Up Your Environment
- Summary
Index
- Chapter 1 Generative Modeling
- What Is Generative Modeling
- Probabilistic Generative Models
- The Challenges of Generative Modeling
- Setting Up Your Environment
- Summary
What Is Generative Modeling
- 生成モデルとは
- 確率モデルを使用して、データを生成する
- データセットに含まれていそうなデータを生成する
What Is Generative Modeling
- Training data を学習して新たな
画像を生成する
- Observation はいくつかの特徴
をもっている
- 学習したモデルにRandom
noise を入力することで
Generated sample を sampling
する
What Is Generative Modeling
- Training data をtraing して
Discriminative model を作成
- Training data の各 observation
は labelを持つ
- Discriminative model は 未知
の observation を入力として
Prediction を出力する
分類モデルとの比較
What Is Generative Modeling
数学的な表記からの比較
分類モデル - observation x が与えられたときの label y の条件確率
生成モデル
- observation x 自体の確率
- (確率分布 -> データセットの確率分布 )
- 条件 y が与えられたときの observation x の確率
Index
- Chapter 1 Generative Modeling
- What Is Generative Modeling
- Probabilistic Generative Models
- The Challenges of Generative Modeling
- Setting Up Your Environment
- Summary
Probabilistic Generative Models
- 用語の定義
1. Sample Space : 全ての Observation x を含む集合
2. Probability Density Function : 確率密度関数 p(x)
a. 観測されたデータセットの 真の確率密度関数 P_data
b. p_data を推定した確率密度関数 p_model
3. Parametric Modeling : パラメータによってモデルを決定する
4. Likelihood : 尤度
a. observation x が与えられたときの の尤度
Probabilistic Generative Models
- 用語の定義
4. Likelihood : 尤度
a. observation x が与えられたときの の尤度
b. データセット X に対する の尤度
c. 対数尤度
d. 最尤法
Probabilistic Generative Models
- Hello World (例題1)
- あなたはファッション関連の会社の
CFO です。
- データセットを利用して、今までにない
新しいファッションかつトレンドに沿った
ファッションを生み出したい考えています
- データセットは50 あり、それぞれ特徴が
あります。
- 特量は5種類で、7 x 6 x 3 x 4 x 8 = 4032
のサンプル空間
Probabilistic Generative Models
Probabilistic Generative Models
このような状況で、どのように生成モデルを構築していくか?
Probabilistic Generative Models
- 生成モデルの構築 【案1】
- d = 4032 のサンプル空間より、生成モデル (P_model)は 以下のように定義できる
- 各 のごとにモデル を構築
- このモデルは多項分布と仮定して、 を以下のように定義
-
- n_j は観測点 x_j のサンプル数、Nはサンプルデータ数
- x_j (あるファッション)
- n_j : そのファッションのデータ数
- N : 全体のデータ数 (50)
Probabilistic Generative Models
- 生成モデルの構築 【案1】
- このモデルではデータセットのサンプル数の割合にすぎない
- また、データにないファッションは 0 になるので生成されることはない
- 生成モデルは、データセットに存在する観測点全てに確率的重みを置くのではなく、データから
学習し、生成される可能性が高いと思われるサンプル空間の領域に重み付けするのが理想的
Probabilistic Generative Models
- 生成モデルの構築 【案2】 Naive Bayes
- Naive Bayes の前提
- 観測点 の特徴量 において
- 特徴量 f_1 は他の特徴量 f_k と独立である
- 推定が必要なパラメータ数は 7 + 6 + 3 + 4 + 8 - 5 = 23
- 生成モデル P_model は
と表せる
Probabilistic Generative Models
- 生成モデルの構築 【案2】 Naive Bayes
- 生成モデルを としたとき
- p(アクセサリ : サングラス, 服の色 : 青, 服の種類 : パーカー,
髪の色 : 黒, 髪型 : ロングヘア)
- = p(アクセサリ : サングラス) x p(服の色 : 青) x ,,, x p(髪型 : ロングヘア)
- 推定値 は
- とし、
- k : 髪型, l : 金髪
-
Probabilistic Generative Models
Probabilistic Generative Models
- 生成モデルの構築 【案2】 Naive Bayes
- データセットにないようなデータの確率も算出できる (生成できる)
- つまり、Naive Bayes はデータセットから、データセットの構造自体を学習できる
- 今回の例のような、Naive Bayes の仮定を満たすような条件であれば、
良い生成モデルを作成することができる
Probabilistic Generative Models
- Hello World Continued (例題2)
- 次の取り組みはデータセットが変わります
- テーブルデータではなく、画像です
- データセットは50 あり、それぞれ特徴が
あります。
- 32 x 32 の画像
- 特徴量としては 1024
Probabilistic Generative Models
Probabilistic Generative Models
このような状況で、どのように生成モデルを構築していくか?
Naive Bayes を適用する、、、?
Probabilistic Generative Models
- 生成モデルの構築 【案2】 Naive Bayes
Probabilistic Generative Models
- 生成モデルの構築 【案2】 Naive Bayes
- うまく生成できない理由
- 隣接しているピクセルは独立していないので、 Naive Bayes の仮定と乖離がある
- サンプル空間には膨大な数の観測点がある
Probabilistic Generative Models
- 生成モデルの課題
- 特徴量同士が依存していて、高次元なデータセットに対してどのように対処するか
- どのようにして、高次元のサンプル空間から精度よく生成するのか
- 改善するには、
- データから関連付けされた構造を推定できるモデルが必要
- → DeepLearning を使用する
Index
- Chapter 1 Generative Modeling
- What Is Generative Modeling
- Probabilistic Generative Models
- The Challenges of Generative Modeling
- Setting Up Your Environment
- Summary
The Challenges of Generative Modeling
- Representation Learning (表現学習)
- 高次元のサンプル空間のモデルを直接考えるのではなく、
学習データの各観測点を低次元空間 (潜在空間)を使って説明する
- 潜在空間からオリジナルの空間へ変換する mapping function を学習する
- mapping function を DeepLearning で決定する
The Challenges of Generative Modeling
- 円柱の画像の例
- 高さと幅が特徴となる画像データ
- 潜在空間から円柱を生成する
mapping function f を DL を利用して
学習する
The Challenges of Generative Modeling
- 円柱の画像の例
- 表現学習を使用する利点
- 画像の高次元の特徴量に影響を及ぼす、
管理しやすい低次元空間(潜在空間)
で操作を実行できる
- 高さと幅の変化の潜在空間 (2次元)を
作ることができれば、生成する画像を
潜在空間で探索できる
Index
- Chapter 1 Generative Modeling
- What Is Generative Modeling
- Probabilistic Generative Models
- The Challenges of Generative Modeling
- Setting Up Your Environment
- Summary
Summary
- 生成モデルとは
- 確率モデルを使用して、データを生成する
- データセットに含まれていそうなデータを生成する
- 生成モデルはこれからの分類モデルを拡張することができる分野である
- 最初の生成モデルでは、 Naive Bayes を使った
- 表現学習について
- 画像のような高次元データは低次元の空間 (潜在空間)への変換することで
生成モデルを容易に構築する
- 潜在空間からデータ空間 (オリジナル空間)への写像関数に DeepLearning を使う
Reference
- Generative Deep Learning
Ad

Recommended

機械学習 入門
機械学習 入門
Hayato Maki
?
笔测迟丑辞苍による机械学习
笔测迟丑辞苍による机械学习
Kimikazu Kato
?
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
Daiyu Hatakeyama
?
Deep learning入門
Deep learning入門
magoroku Yamamoto
?
笔测迟丑辞苍による机械学习入門 ~Deep Learningに挑戦~
笔测迟丑辞苍による机械学习入門 ~Deep Learningに挑戦~
Yasutomo Kawanishi
?
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)
Toshihiko Yamakami
?
Seeing Unseens with Machine Learning -- ?見えていないものを見出す機械学習
Seeing Unseens with Machine Learning -- ?見えていないものを見出す機械学習
Tatsuya Shirakawa
?
Active Learning と Bayesian Neural Network
Active Learning と Bayesian Neural Network
Naoki Matsunaga
?
画像処理基础
画像処理基础
大貴 末廣
?
滨苍蹿别谤.苍别迟による濒诲补の実装
滨苍蹿别谤.苍别迟による濒诲补の実装
池田 直哉
?
グラフデータ分析 入門編
グラフデータ分析 入門編
順也 山口
?
Ocha 20191204
Ocha 20191204
Atsushi Hashimoto
?
データサイエンティスト協会 木曜勉強会 #09 『意志の力が拓くシステム~最適化の適用事例から見たデータ活用システムの現在と未来~』
データサイエンティスト協会 木曜勉強会 #09 『意志の力が拓くシステム~最適化の適用事例から見たデータ活用システムの現在と未来~』
The Japan DataScientist Society
?
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...
SSII
?
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
Deep Learning JP
?
机械学习の理论と実践
机械学习の理论と実践
Preferred Networks
?
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
Ken Morishita
?
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
Yuya Unno
?
罢别苍蝉辞谤贵濒辞飞によるニューラルネットワーク入门
罢别苍蝉辞谤贵濒辞飞によるニューラルネットワーク入门
Etsuji Nakai
?
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用
nishio
?
CG Image Recognition with Deep Learning
CG Image Recognition with Deep Learning
Kodai Takao
?
笔测迟丑辞苍による机械学习入門?基礎からDeep Learningまで?
笔测迟丑辞苍による机械学习入門?基礎からDeep Learningまで?
Yasutomo Kawanishi
?
SSII2020SS: グラフデータでも深層学習 ? Graph Neural Networks 入門 ?
SSII2020SS: グラフデータでも深層学習 ? Graph Neural Networks 入門 ?
SSII
?
闯耻产补迟耻蝉の特徴変换と线形分类器の仕组み
闯耻产补迟耻蝉の特徴変换と线形分类器の仕组み
JubatusOfficial
?
Neural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo
?
2013.07.15 はし?ハ?タlt scikit-learnて?始める機械学習
2013.07.15 はし?ハ?タlt scikit-learnて?始める機械学習
Motoya Wakiyama
?
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
?
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
Shunsuke Nakamura
?
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?

More Related Content

What's hot (20)

画像処理基础
画像処理基础
大貴 末廣
?
滨苍蹿别谤.苍别迟による濒诲补の実装
滨苍蹿别谤.苍别迟による濒诲补の実装
池田 直哉
?
グラフデータ分析 入門編
グラフデータ分析 入門編
順也 山口
?
Ocha 20191204
Ocha 20191204
Atsushi Hashimoto
?
データサイエンティスト協会 木曜勉強会 #09 『意志の力が拓くシステム~最適化の適用事例から見たデータ活用システムの現在と未来~』
データサイエンティスト協会 木曜勉強会 #09 『意志の力が拓くシステム~最適化の適用事例から見たデータ活用システムの現在と未来~』
The Japan DataScientist Society
?
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...
SSII
?
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
Deep Learning JP
?
机械学习の理论と実践
机械学习の理论と実践
Preferred Networks
?
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
Ken Morishita
?
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
Yuya Unno
?
罢别苍蝉辞谤贵濒辞飞によるニューラルネットワーク入门
罢别苍蝉辞谤贵濒辞飞によるニューラルネットワーク入门
Etsuji Nakai
?
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用
nishio
?
CG Image Recognition with Deep Learning
CG Image Recognition with Deep Learning
Kodai Takao
?
笔测迟丑辞苍による机械学习入門?基礎からDeep Learningまで?
笔测迟丑辞苍による机械学习入門?基礎からDeep Learningまで?
Yasutomo Kawanishi
?
SSII2020SS: グラフデータでも深層学習 ? Graph Neural Networks 入門 ?
SSII2020SS: グラフデータでも深層学習 ? Graph Neural Networks 入門 ?
SSII
?
闯耻产补迟耻蝉の特徴変换と线形分类器の仕组み
闯耻产补迟耻蝉の特徴変换と线形分类器の仕组み
JubatusOfficial
?
Neural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo
?
2013.07.15 はし?ハ?タlt scikit-learnて?始める機械学習
2013.07.15 はし?ハ?タlt scikit-learnて?始める機械学習
Motoya Wakiyama
?
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
?
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
Shunsuke Nakamura
?
滨苍蹿别谤.苍别迟による濒诲补の実装
滨苍蹿别谤.苍别迟による濒诲补の実装
池田 直哉
?
グラフデータ分析 入門編
グラフデータ分析 入門編
順也 山口
?
データサイエンティスト協会 木曜勉強会 #09 『意志の力が拓くシステム~最適化の適用事例から見たデータ活用システムの現在と未来~』
データサイエンティスト協会 木曜勉強会 #09 『意志の力が拓くシステム~最適化の適用事例から見たデータ活用システムの現在と未来~』
The Japan DataScientist Society
?
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...
SSII
?
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
Deep Learning JP
?
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
Ken Morishita
?
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
Yuya Unno
?
罢别苍蝉辞谤贵濒辞飞によるニューラルネットワーク入门
罢别苍蝉辞谤贵濒辞飞によるニューラルネットワーク入门
Etsuji Nakai
?
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用
nishio
?
CG Image Recognition with Deep Learning
CG Image Recognition with Deep Learning
Kodai Takao
?
笔测迟丑辞苍による机械学习入門?基礎からDeep Learningまで?
笔测迟丑辞苍による机械学习入門?基礎からDeep Learningまで?
Yasutomo Kawanishi
?
SSII2020SS: グラフデータでも深層学習 ? Graph Neural Networks 入門 ?
SSII2020SS: グラフデータでも深層学習 ? Graph Neural Networks 入門 ?
SSII
?
闯耻产补迟耻蝉の特徴変换と线形分类器の仕组み
闯耻产补迟耻蝉の特徴変换と线形分类器の仕组み
JubatusOfficial
?
Neural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo
?
2013.07.15 はし?ハ?タlt scikit-learnて?始める機械学習
2013.07.15 はし?ハ?タlt scikit-learnて?始める機械学習
Motoya Wakiyama
?
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
?
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
Shunsuke Nakamura
?

Similar to Generative Deep Learning #01 (20)

生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)
Akira Nakagawa
?
Generative deeplearning #02
Generative deeplearning #02
逸人 米田
?
深层生成モデルと世界モデル(2020/11/20版)
深层生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
?
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
?
深层生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深层生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
Masahiro Suzuki
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
【参考文献追加】20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
【参考文献追加】20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
Preferred Networks
?
20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
Preferred Networks
?
20170422 数学カフェ Part1
20170422 数学カフェ Part1
Kenta Oono
?
Deep Learning 20章 輪講会 資料
Deep Learning 20章 輪講会 資料
sorashido
?
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
Deep Learning JP
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
滨肠尘濒2018読み会冲辞惫别谤惫颈别飞&补尘辫;骋础狈蝉
滨肠尘濒2018読み会冲辞惫别谤惫颈别飞&补尘辫;骋础狈蝉
Kentaro Tachibana
?
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
?
[DL輪読会]Shaping Belief States with Generative Environment Models for RL
[DL輪読会]Shaping Belief States with Generative Environment Models for RL
Deep Learning JP
?
Deep Learningの基礎と応用
Deep Learningの基礎と応用
Seiya Tokui
?
Deep learning for acoustic modeling in parametric speech generation
Deep learning for acoustic modeling in parametric speech generation
Yuki Saito
?
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)
Akira Nakagawa
?
Generative deeplearning #02
Generative deeplearning #02
逸人 米田
?
深层生成モデルと世界モデル(2020/11/20版)
深层生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
?
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
?
深层生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深层生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
Masahiro Suzuki
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
【参考文献追加】20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
【参考文献追加】20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
Preferred Networks
?
20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
20180115冲东大医学部机能生物学セミナー冲深层学习の最前线とこれから冲冈野原大辅
Preferred Networks
?
20170422 数学カフェ Part1
20170422 数学カフェ Part1
Kenta Oono
?
Deep Learning 20章 輪講会 資料
Deep Learning 20章 輪講会 資料
sorashido
?
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
Deep Learning JP
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
滨肠尘濒2018読み会冲辞惫别谤惫颈别飞&补尘辫;骋础狈蝉
滨肠尘濒2018読み会冲辞惫别谤惫颈别飞&补尘辫;骋础狈蝉
Kentaro Tachibana
?
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
?
[DL輪読会]Shaping Belief States with Generative Environment Models for RL
[DL輪読会]Shaping Belief States with Generative Environment Models for RL
Deep Learning JP
?
Deep Learningの基礎と応用
Deep Learningの基礎と応用
Seiya Tokui
?
Deep learning for acoustic modeling in parametric speech generation
Deep learning for acoustic modeling in parametric speech generation
Yuki Saito
?
Ad

Generative Deep Learning #01

  • 2. about “Generative Deep Learning” - 2019/06 出版 - 最近の生成モデルのテクニックについて - DeepLearning のある程度の事前知識を前提 - Part 1 基本となる理論 - DeepLearning - VAE - GAN - Part 2 応用とテクニック - CycleGAN - Encoder - Decoder Model - MuseGAN - BigGAN - BERT - etc
  • 4. Index (GenerativeDeepLearning) I. Introduction to Generative Deep Learning 1. Generative Modeling 2. Deep Learning 3. VAE 4. GAN II. Teaching Machine to Paint, Write, Compose, and Play 5. Paint 6. Write 7. Compose 8. Play 9. The Future of Generative Modeling 10. Conclusion
  • 5. Index (GenerativeDeepLearning) I. Introduction to Generative Deep Learning 1. Generative Modeling 2. Deep Learning 3. VAE 4. GAN II. Teaching Machine to Paint, Write, Compose, and Play 5. Paint 6. Write 7. Compose 8. Play 9. The Future of Generative Modeling 10. Conclusion
  • 6. Index - Chapter 1 Generative Modeling - What Is Generative Modeling - Probabilistic Generative Models - The Challenges of Generative Modeling - Setting Up Your Environment - Summary
  • 7. Index - Chapter 1 Generative Modeling - What Is Generative Modeling - Probabilistic Generative Models - The Challenges of Generative Modeling - Setting Up Your Environment - Summary
  • 8. What Is Generative Modeling - 生成モデルとは - 確率モデルを使用して、データを生成する - データセットに含まれていそうなデータを生成する
  • 9. What Is Generative Modeling - Training data を学習して新たな 画像を生成する - Observation はいくつかの特徴 をもっている - 学習したモデルにRandom noise を入力することで Generated sample を sampling する
  • 10. What Is Generative Modeling - Training data をtraing して Discriminative model を作成 - Training data の各 observation は labelを持つ - Discriminative model は 未知 の observation を入力として Prediction を出力する 分類モデルとの比較
  • 11. What Is Generative Modeling 数学的な表記からの比較 分類モデル - observation x が与えられたときの label y の条件確率 生成モデル - observation x 自体の確率 - (確率分布 -> データセットの確率分布 ) - 条件 y が与えられたときの observation x の確率
  • 12. Index - Chapter 1 Generative Modeling - What Is Generative Modeling - Probabilistic Generative Models - The Challenges of Generative Modeling - Setting Up Your Environment - Summary
  • 13. Probabilistic Generative Models - 用語の定義 1. Sample Space : 全ての Observation x を含む集合 2. Probability Density Function : 確率密度関数 p(x) a. 観測されたデータセットの 真の確率密度関数 P_data b. p_data を推定した確率密度関数 p_model 3. Parametric Modeling : パラメータによってモデルを決定する 4. Likelihood : 尤度 a. observation x が与えられたときの の尤度
  • 14. Probabilistic Generative Models - 用語の定義 4. Likelihood : 尤度 a. observation x が与えられたときの の尤度 b. データセット X に対する の尤度 c. 対数尤度 d. 最尤法
  • 15. Probabilistic Generative Models - Hello World (例題1) - あなたはファッション関連の会社の CFO です。 - データセットを利用して、今までにない 新しいファッションかつトレンドに沿った ファッションを生み出したい考えています - データセットは50 あり、それぞれ特徴が あります。 - 特量は5種類で、7 x 6 x 3 x 4 x 8 = 4032 のサンプル空間
  • 18. Probabilistic Generative Models - 生成モデルの構築 【案1】 - d = 4032 のサンプル空間より、生成モデル (P_model)は 以下のように定義できる - 各 のごとにモデル を構築 - このモデルは多項分布と仮定して、 を以下のように定義 - - n_j は観測点 x_j のサンプル数、Nはサンプルデータ数 - x_j (あるファッション) - n_j : そのファッションのデータ数 - N : 全体のデータ数 (50)
  • 19. Probabilistic Generative Models - 生成モデルの構築 【案1】 - このモデルではデータセットのサンプル数の割合にすぎない - また、データにないファッションは 0 になるので生成されることはない - 生成モデルは、データセットに存在する観測点全てに確率的重みを置くのではなく、データから 学習し、生成される可能性が高いと思われるサンプル空間の領域に重み付けするのが理想的
  • 20. Probabilistic Generative Models - 生成モデルの構築 【案2】 Naive Bayes - Naive Bayes の前提 - 観測点 の特徴量 において - 特徴量 f_1 は他の特徴量 f_k と独立である - 推定が必要なパラメータ数は 7 + 6 + 3 + 4 + 8 - 5 = 23 - 生成モデル P_model は と表せる
  • 21. Probabilistic Generative Models - 生成モデルの構築 【案2】 Naive Bayes - 生成モデルを としたとき - p(アクセサリ : サングラス, 服の色 : 青, 服の種類 : パーカー, 髪の色 : 黒, 髪型 : ロングヘア) - = p(アクセサリ : サングラス) x p(服の色 : 青) x ,,, x p(髪型 : ロングヘア) - 推定値 は - とし、 - k : 髪型, l : 金髪 -
  • 23. Probabilistic Generative Models - 生成モデルの構築 【案2】 Naive Bayes - データセットにないようなデータの確率も算出できる (生成できる) - つまり、Naive Bayes はデータセットから、データセットの構造自体を学習できる - 今回の例のような、Naive Bayes の仮定を満たすような条件であれば、 良い生成モデルを作成することができる
  • 24. Probabilistic Generative Models - Hello World Continued (例題2) - 次の取り組みはデータセットが変わります - テーブルデータではなく、画像です - データセットは50 あり、それぞれ特徴が あります。 - 32 x 32 の画像 - 特徴量としては 1024
  • 27. Probabilistic Generative Models - 生成モデルの構築 【案2】 Naive Bayes
  • 28. Probabilistic Generative Models - 生成モデルの構築 【案2】 Naive Bayes - うまく生成できない理由 - 隣接しているピクセルは独立していないので、 Naive Bayes の仮定と乖離がある - サンプル空間には膨大な数の観測点がある
  • 29. Probabilistic Generative Models - 生成モデルの課題 - 特徴量同士が依存していて、高次元なデータセットに対してどのように対処するか - どのようにして、高次元のサンプル空間から精度よく生成するのか - 改善するには、 - データから関連付けされた構造を推定できるモデルが必要 - → DeepLearning を使用する
  • 30. Index - Chapter 1 Generative Modeling - What Is Generative Modeling - Probabilistic Generative Models - The Challenges of Generative Modeling - Setting Up Your Environment - Summary
  • 31. The Challenges of Generative Modeling - Representation Learning (表現学習) - 高次元のサンプル空間のモデルを直接考えるのではなく、 学習データの各観測点を低次元空間 (潜在空間)を使って説明する - 潜在空間からオリジナルの空間へ変換する mapping function を学習する - mapping function を DeepLearning で決定する
  • 32. The Challenges of Generative Modeling - 円柱の画像の例 - 高さと幅が特徴となる画像データ - 潜在空間から円柱を生成する mapping function f を DL を利用して 学習する
  • 33. The Challenges of Generative Modeling - 円柱の画像の例 - 表現学習を使用する利点 - 画像の高次元の特徴量に影響を及ぼす、 管理しやすい低次元空間(潜在空間) で操作を実行できる - 高さと幅の変化の潜在空間 (2次元)を 作ることができれば、生成する画像を 潜在空間で探索できる
  • 34. Index - Chapter 1 Generative Modeling - What Is Generative Modeling - Probabilistic Generative Models - The Challenges of Generative Modeling - Setting Up Your Environment - Summary
  • 35. Summary - 生成モデルとは - 確率モデルを使用して、データを生成する - データセットに含まれていそうなデータを生成する - 生成モデルはこれからの分類モデルを拡張することができる分野である - 最初の生成モデルでは、 Naive Bayes を使った - 表現学習について - 画像のような高次元データは低次元の空間 (潜在空間)への変換することで 生成モデルを容易に構築する - 潜在空間からデータ空間 (オリジナル空間)への写像関数に DeepLearning を使う