狠狠撸

狠狠撸Share a Scribd company logo
GANについて
KCS AI班 理工学部学士3年
石井 智也 渡邉 寛悠 佐久間 拓哉
1. GANについての説明
2. DCGAN
3. BEGAN
4. SNGAN
5. SAGAN
自己紹介
石井智也 佐久間拓哉 渡邉寛悠
2019/1/26 2
1.生成モデルとGANの概説
2019/1/26 3
担当:石井
GANとは
? 生成モデルと呼ばれる機械学習のモデルの1つ
? 潜在変数を?, データを?のように表した際?(?|?)のような
形になるものは,データから潜在次元への分布をもとめ
る確率モデルで,潜在変数 をラベルとみなすことで,
いわゆる識別モデルとなる.
? 対して生成モデルは?(?|?)の表現を学習して,潜在分布か
らデータを作成する.
? GANは敵対的生成ネットワーク(Generative
Adversarial Nets)の略称で2014年にIan Goodfellow
が考案
2019/1/26 4
生成モデルの利点
? 新規データのサンプリングができる
? それはそう
? 欠損値の補完
? 入力にノイズを加えたものに対し,デノイジングを学習するDAE(デノ
イジングオートエンコーダ)といったものも存在する.
? 欠損値 ?から本来の値を学習することによって,ノイズを除去するよう
な〝ベクトル場?を学習することができる
? 生成結果が面白い
? 学習のモチベーション的には結構重要(かも)
2019/1/26 5
生成モデルの種類
名称 長所 短所
自己回帰モデル 生成画像は鮮明 学習が遅い
変分オートエンコーダ
(VAE)
潜在変数の確率分布
が求まる
輪郭がぼやけやすい
GANs
画像が鮮明
なものもある
学習が不安定
2019/1/26 6
1枚で分かりそうなGAN(まじめ)
? Min-Maxゲーム
? min
?
max
?
? ?~? ????(?) log ? ? + ? ?~? ???(?) log 1 ? ? ? ?
Discriminatorを本来の画像を
「本来の画像」として,認識
させる(最大化)ように学習
Discriminatorを生成画像を「偽物の画像」
として,認識させるよう(最大化)に学習
GeneratorはうまくDiscriminatorを
だますようなサンプルを作らせる
Discriminatorは正誤を正しく判別
できるように学習
2019/1/26 7
1枚で分かりそうなGAN(いらすとや)
? ?
潜在変数?
Generator
?(?)
?
Discriminator
こいつは偽物や!
こっちは本物っぽい
2019/1/26 8
1枚で分かるGANの進化(2014~2018)
? Goodfellow氏のツイート
2019/1/26 9
ざっと見るGANの歴史
? 2014
? Generative Adversarial Networks
? 2015
? DCGAN
? Unsupervised Representation Learning with Deep
Convolutional Generative Adversarial Networks
? 2016
? LSGAN (誤差関数:二乗誤差)
? 2017
? Wasserstein-GAN(誤差関数:Earth-Mover距離)
? WGAN-GP(誤差関数:上のヤツ+勾配への罰則)
アーキテクチャの提案
CNNを学習に使用
誤差関数の試行錯誤
2019/1/26 10
ざっと見るGANの歴史
? 2016
? Pix2Pix
? 2017
? CycleGAN
? Progressive-Growing GAN
? サイズをだんだん大きくして高解像度の
画像を生成しよう!
? 2018
? Spectral-Normalization GAN
? Self-Attention GAN
画像データ→画像生成
高画質化
学習の安定化...?
2019/1/26 11
2.DCGAN
2019/1/26 12
担当:佐久間
GANの問題点
? 収束性
? モード崩壊
? 勾配消失
→学習が不安定で高解像度の画像を生成することが難しい
CNNを利用しても高解像画像の生成は難しかった
2019/1/26 13
DCGAN(Deep Convolutional GAN)
? DCGANはCNNを利用したGANのモデル
? 学習をうまく進めるために様々なテクニックを用いている
Radford et al. (2015)2019/1/26 14
DCGANのテクニック①
プーリング層を廃止
? Discriminatorではストライド2の畳み込みに置き換える
? Generatorではfractionally-strided convolutionでアップサンプ
リング
→ダウンサンプリング/アップサンプリングの重みを自ら
学習させる
2019/1/26 15
DCGANのテクニック②
全結合層を廃止
? Discriminatorでglobal average poolingに置き換える
→パラメータが無くなることで過学習を防ぐ
2019/1/26 16
global average pooling
? CNNの特徴マップをそれぞれクラスに割り当てる
? 各特徴マップの平均によるベクトルをソフトマックス
?パラメータが減るため過学習を抑制することができる
?次元が減るためメモリの節約にもなる
https://elix-tech.github.io/ja/2017/02/06/gan.html#dcgan2019/1/26 17
DCGANのテクニック③
Batch Normalizationを利用
? Discriminatorの入力以外で適応
→パラメータの初期値に依存しにくくなる
勾配損失?爆発を防ぐ
2019/1/26 18
Batch Normalization
?個からなるミニバッチ? = {?1, … , ? ?}と学習されたパラメータ
?, ?に対して、ミニバッチ内での平均と分散を求める。
? ? =
1
?
?=1
?
?? ? ?
2
=
1
?
?=1
?
?? ? ? ?
2
これらを使い、ミニバッチの各要素を次のように変換する
?? =
?? ? ?
? ?
2
+ ?
?? = ? ?? + ?
この手続きによって得られた{??, … , ? ?}をBatch Normalizationの
出力とする
2019/1/26 19
DCGANのテクニック④
Leaky ReLUを利用
? Generatorの出力層以外で適応
→での学習も可能にする
Leaky ReLU
? ? = max(??, ?)
DCGANでは? = 0.2
2019/1/26 20
結果
2019/1/26 21
3.BEGAN
2019/1/26 22
担当:渡邉
2019/1/26 23
2019/1/26 24
2019/1/26 25
2019/1/26 26
2019/1/26 27
2019/1/26 28
2019/1/26 29
2019/1/26 30
参考文献等
? https://elix-tech.github.io/ja/2017/02/06/gan.html#dcgan
? http://musyoku.github.io/2017/04/16/Boundary-Equilibrium-
Generative-Adversarial-Networks/
? https://qiita.com/underfitting/items/9c92be2d8ea42c612e88
2019/1/26 31
4.Spectral Normalization GAN
arXiv:1802.05957
2019/1/26 32
担当:石井
SNGANの概要
? PFN(Preferred Networks)の宮戸氏+NII(国立情報学研究所)の吉田氏の論文
? 行列?を最大特異値(=?2ノルム)で割ることでLipschitz連続性を満たすよ
うにさせ,Lipschitz定数をコントロールし安定性の向上を図った
? この正規化層はDiscriminatorのみに設けてある.
2019/1/26 33
Lipschitz連続ってなんだっけ
? 写像?の任意のドメインの2点?, ?に対して,作用前と作用後の
距離を定数?で抑えられるときLipschitz連続(K-Lipschitz)という
? ちなみにこの時の?はLipschitz定数と呼ばれる
??, ??, ? ? ? ? ? 2
≤ ? ? ? ? 2
? 入力値の微小摂動に対して,出力の変化が微小であることが保証されてい
るため機械学習/深層学習分野では,小さな修正でこの条件を達成できる
ようになることも相まってよく使われている.
2019/1/26 34
行列のノルム
? 集合?の任意元?に対し大きさとして扱える条件が満たされるような ? ∈ ?1が定義され
ているとき| ? |を?のノルムという.(長さの一般化)
? ベクトルの?2ノルムはユークリッド距離に等しい
? 行列の? ?ノルムは以下のように定義される
? ?
= sup
?≠?
?? ?
? ?
= sup
? ?
=1
?? ?
2019/1/26 35
行列のノルム
? 行列の?2ノルムはスペクトルノルム(Spectral Norm)と呼ばれている
? 先ほどの式は言い換えてしまえば単位ベクトルの入力に対する出力の最も大きく変形す
る長さであるといえる
? ? = 2のとき,直感的にこれは最大特異値(正方行列なら最大固有値)とわかる
?
? ∈ ?| ? 2
= 1
??
? 2
2019/1/26 36
Lipschitzノルム
? Lipschitz連続は定義から任意元?に対する勾配の?2ノルムの
上界であるといえる.(??, ? ? + Δ? ? ? ? 2
/ Δ? 2
≤ ?)
? これを ? ???
のように表す.このノルムは劣乗法性( ? ° ? ???
≤ ? ???
?
? ???
)が定義から成り立つ(証明略)ので,NNの?層- ? + 1 層間の作用を
?? → ??+1??
???
と表現し?層目の活性化関数を| ?? |と表せば,活性化
層が1-Lipschitzであるとき, ? 層あるNNの射影?のLipschitz Normは
各々の層の間の作用のLipschitz Normの総乗以下となる.
? ???
≤
?=0
?
?? → ??+1??
???
2019/1/26 37
Lipschitzノルム
? 射影 ?? → ??+1?? は線形変換なのでこのLipschitz Normは
??+1
2
である.したがって,各々の ??+1
を?2ノルムで割る
ことで層の射影を1-Lipschitzに抑えることができるようになる
? 結果としてNN全体のLipschitz Normが1以下に収まるといえる
? ???
≤
?=0
?
?? → ??+1
??
???
≤ 1
2019/1/26 38
結果
ピザ(論文内の例)
美少女(自分の実装の例)
2019/1/26 39
5. Self-Attention GAN
arXiv:1805.08318
2019/1/26 40
担当:石井
Self-Attention GANの要点
? Spectrum NormをGeneratorにも適用した
? Two-Timescale Update RuleによってGANの学習速度が向上す
ることが判明した
? TTUR:GとDで異なる学習率を用いる
? Arxiv:1706.08500
? 機械翻訳等で用いられるようなSelf-Attention層を考案した
? 当時のSoTAを達成!
2019/1/26 41
CNN層の問題点
? CNNはカーネルを走査的に適用するため,局所的受容野を持つ
? そのため,大局的な受容野を持つためには何層も層を重ねる必
要がある.
? 別の選択肢としてカーネルの大きさを大きくするという選択肢がある
が,これでは局所的な畳込みによって得られる恩恵を失ってしまう
? 3x3畳み込み層では物体に対して局所的なエッヂに対して反応する受容野を持つ
ことが見込めるが13x13畳込み層ではこういった部分に対する反応が起きないか
もしれない
? 3x3を5回適用することと13x13を一回適用するとでは計算量の観点からも,局所
性の観点からでも性能が低下することが懸念される.
? Self-Attention層により,大局的受容野を効率的に持つことが
できる
2019/1/26 42
Self-Attention機構
2019/1/26 43
? クエリが? ? ,キーを?(?),バリューが?(?)の辞書に対応している
? 入力を? ?×?の形にする.
? 論文中では? ? = ?? ?, ?? ∈ ?
?
8
×?
, ? ? = ?? ?, ?? ∈ ?
?
8
×?
で1x1畳み込み層で写像を定義
している
? ? ? の出力の転置と, ? ? の出力を掛けて,ソフトマックスをする(行列?とする)
? 図中のAttention Mapに対応
?????と???の類似度
正規化
Self-Attention機構
2019/1/26 44
? ?, ?でどの画素とどの画素が似ているかを計算することができる.
? 最後に? ? = ?? ?, ?? ∈ ? ?×?をAttention Mapに掛ける.
? 結果? ? ? ? ? ? ?(?)という演算と通して大局的受容野を持たせるように試みている
? Self-Attentionの利点は下の隠れ層の全位置を参照できる点にある.
Self-Attention機構
2019/1/26 45
? Self-Attentionの出力を?として,もともとの入力?に対して重み付き和を出力する
? ? = ?? + ?(?は0で初期化する)
? ?を学習パラメータとすることで次第にSelf-Attention機構が大局性を持って学習できる
ようになる
Self-Attention機構
2019/1/26 46
? ????????? ???の出力の例
? 一番左の画像のRGBに対応するAttentionMapが右の3つの画像である.
? 色が似ている点に反応しなおかつ,長距離でも反応できていることが分かる.
学習結果
2019/1/26 47
FIDはGANの精度(質)の評価
(低いほどGood)
ISはGANの多様性の評価
(高いほどGood)
おわり
? 佐久間君が発表してくれなくて寂しかったです
2019/1/26 48

More Related Content

What's hot (20)

【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习
cvpaper. challenge
?
强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
Deep Learning JP
?
贰惭アルゴリズム
贰惭アルゴリズム贰惭アルゴリズム
贰惭アルゴリズム
Sotetsu KOYAMADA(小山田創哲)
?
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Takuma Yagi
?
最适输送の解き方
最适输送の解き方最适输送の解き方
最适输送の解き方
joisino
?
実装レベルで学ぶ痴蚕痴础贰
実装レベルで学ぶ痴蚕痴础贰実装レベルで学ぶ痴蚕痴础贰
実装レベルで学ぶ痴蚕痴础贰
ぱんいち すみもと
?
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
?
[DL輪読会]Learning convolutional neural networks for graphs
[DL輪読会]Learning convolutional neural networks for graphs[DL輪読会]Learning convolutional neural networks for graphs
[DL輪読会]Learning convolutional neural networks for graphs
Deep Learning JP
?
骋础狈(と强化学习との関係)
骋础狈(と强化学习との関係)骋础狈(と强化学习との関係)
骋础狈(と强化学习との関係)
Masahiro Suzuki
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
京都大学大学院情报学研究科数理工学専攻
?
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
Deep Learning JP
?
グラフニューラルネットワークとグラフ组合せ问题
グラフニューラルネットワークとグラフ组合せ问题グラフニューラルネットワークとグラフ组合せ问题
グラフニューラルネットワークとグラフ组合せ问题
joisino
?
ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介
Naoki Hayashi
?
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
Shohei Taniguchi
?
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing Flow
Akihiro Nitta
?
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定
Hiroshi Nakagawa
?
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习
cvpaper. challenge
?
强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
Deep Learning JP
?
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Takuma Yagi
?
最适输送の解き方
最适输送の解き方最适输送の解き方
最适输送の解き方
joisino
?
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
?
[DL輪読会]Learning convolutional neural networks for graphs
[DL輪読会]Learning convolutional neural networks for graphs[DL輪読会]Learning convolutional neural networks for graphs
[DL輪読会]Learning convolutional neural networks for graphs
Deep Learning JP
?
骋础狈(と强化学习との関係)
骋础狈(と强化学习との関係)骋础狈(と强化学习との関係)
骋础狈(と强化学习との関係)
Masahiro Suzuki
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
Deep Learning JP
?
グラフニューラルネットワークとグラフ组合せ问题
グラフニューラルネットワークとグラフ组合せ问题グラフニューラルネットワークとグラフ组合せ问题
グラフニューラルネットワークとグラフ组合せ问题
joisino
?
ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介
Naoki Hayashi
?
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
Shohei Taniguchi
?
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing Flow
Akihiro Nitta
?
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定
Hiroshi Nakagawa
?
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?

Similar to Large scale gan training for high fidelity natural (20)

【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】
【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】
【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】
Naoki Hayashi
?
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
Morpho, Inc.
?
A Brief Survey of Schr?dinger Bridge (Part I)
A Brief Survey of Schr?dinger Bridge (Part I)A Brief Survey of Schr?dinger Bridge (Part I)
A Brief Survey of Schr?dinger Bridge (Part I)
Morpho, Inc.
?
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
?
CMSI計算科学技術特論A (2015) 第12回 古典分子動力学法の高速化
CMSI計算科学技術特論A (2015) 第12回 古典分子動力学法の高速化CMSI計算科学技術特論A (2015) 第12回 古典分子動力学法の高速化
CMSI計算科学技術特論A (2015) 第12回 古典分子動力学法の高速化
Computational Materials Science Initiative
?
あなたの心に叠谤颈诲驳别厂补尘辫濒颈苍驳
あなたの心に叠谤颈诲驳别厂补尘辫濒颈苍驳あなたの心に叠谤颈诲驳别厂补尘辫濒颈苍驳
あなたの心に叠谤颈诲驳别厂补尘辫濒颈苍驳
daiki hojo
?
笔搁惭尝第9章「混合モデルと贰惭」
笔搁惭尝第9章「混合モデルと贰惭」笔搁惭尝第9章「混合モデルと贰惭」
笔搁惭尝第9章「混合モデルと贰惭」
Keisuke Sugawara
?
充足可能性问题のいろいろ
充足可能性问题のいろいろ充足可能性问题のいろいろ
充足可能性问题のいろいろ
Hiroshi Yamashita
?
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
?
El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704
RCCSRENKEI
?
Non-autoregressive text generation
Non-autoregressive text generationNon-autoregressive text generation
Non-autoregressive text generation
nlab_utokyo
?
ベイズ统计によるデータ解析
ベイズ统计によるデータ解析ベイズ统计によるデータ解析
ベイズ统计によるデータ解析
Kunihiro Hisatsune
?
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
Eiji Uchibe
?
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
Deep Learning JP
?
ベイズ统计学の概论的绍介-old
ベイズ统计学の概论的绍介-oldベイズ统计学の概论的绍介-old
ベイズ统计学の概论的绍介-old
Naoki Hayashi
?
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
. .
?
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?
Data assim r
Data assim rData assim r
Data assim r
Xiangze
?
骋础搁颁贬厂碍モデルを用いた条件付き固有モーメントの実証分析
骋础搁颁贬厂碍モデルを用いた条件付き固有モーメントの実証分析骋础搁颁贬厂碍モデルを用いた条件付き固有モーメントの実証分析
骋础搁颁贬厂碍モデルを用いた条件付き固有モーメントの実証分析
Kei Nakagawa
?
第126回 ロボット工学セミナー 三次元点群と深層学習
第126回 ロボット工学セミナー 三次元点群と深層学習第126回 ロボット工学セミナー 三次元点群と深層学習
第126回 ロボット工学セミナー 三次元点群と深層学習
Naoya Chiba
?
【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】
【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】
【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】
Naoki Hayashi
?
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
Morpho, Inc.
?
A Brief Survey of Schr?dinger Bridge (Part I)
A Brief Survey of Schr?dinger Bridge (Part I)A Brief Survey of Schr?dinger Bridge (Part I)
A Brief Survey of Schr?dinger Bridge (Part I)
Morpho, Inc.
?
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
?
CMSI計算科学技術特論A (2015) 第12回 古典分子動力学法の高速化
CMSI計算科学技術特論A (2015) 第12回 古典分子動力学法の高速化CMSI計算科学技術特論A (2015) 第12回 古典分子動力学法の高速化
CMSI計算科学技術特論A (2015) 第12回 古典分子動力学法の高速化
Computational Materials Science Initiative
?
あなたの心に叠谤颈诲驳别厂补尘辫濒颈苍驳
あなたの心に叠谤颈诲驳别厂补尘辫濒颈苍驳あなたの心に叠谤颈诲驳别厂补尘辫濒颈苍驳
あなたの心に叠谤颈诲驳别厂补尘辫濒颈苍驳
daiki hojo
?
笔搁惭尝第9章「混合モデルと贰惭」
笔搁惭尝第9章「混合モデルと贰惭」笔搁惭尝第9章「混合モデルと贰惭」
笔搁惭尝第9章「混合モデルと贰惭」
Keisuke Sugawara
?
充足可能性问题のいろいろ
充足可能性问题のいろいろ充足可能性问题のいろいろ
充足可能性问题のいろいろ
Hiroshi Yamashita
?
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
?
El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704
RCCSRENKEI
?
Non-autoregressive text generation
Non-autoregressive text generationNon-autoregressive text generation
Non-autoregressive text generation
nlab_utokyo
?
ベイズ统计によるデータ解析
ベイズ统计によるデータ解析ベイズ统计によるデータ解析
ベイズ统计によるデータ解析
Kunihiro Hisatsune
?
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
Eiji Uchibe
?
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
Deep Learning JP
?
ベイズ统计学の概论的绍介-old
ベイズ统计学の概论的绍介-oldベイズ统计学の概论的绍介-old
ベイズ统计学の概论的绍介-old
Naoki Hayashi
?
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
. .
?
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?
骋础搁颁贬厂碍モデルを用いた条件付き固有モーメントの実証分析
骋础搁颁贬厂碍モデルを用いた条件付き固有モーメントの実証分析骋础搁颁贬厂碍モデルを用いた条件付き固有モーメントの実証分析
骋础搁颁贬厂碍モデルを用いた条件付き固有モーメントの実証分析
Kei Nakagawa
?
第126回 ロボット工学セミナー 三次元点群と深層学習
第126回 ロボット工学セミナー 三次元点群と深層学習第126回 ロボット工学セミナー 三次元点群と深層学習
第126回 ロボット工学セミナー 三次元点群と深層学習
Naoya Chiba
?

More from KCS Keio Computer Society (20)

Imagenet trained cnns-are_biased_towards
Imagenet trained cnns-are_biased_towardsImagenet trained cnns-are_biased_towards
Imagenet trained cnns-are_biased_towards
KCS Keio Computer Society
?
機械学習ゼミ: Area attenttion
機械学習ゼミ: Area attenttion機械学習ゼミ: Area attenttion
機械学習ゼミ: Area attenttion
KCS Keio Computer Society
?
機械学習ゼミ 2018/10/17
機械学習ゼミ 2018/10/17機械学習ゼミ 2018/10/17
機械学習ゼミ 2018/10/17
KCS Keio Computer Society
?
機械学習ゼミ2018 06 15
機械学習ゼミ2018 06 15機械学習ゼミ2018 06 15
機械学習ゼミ2018 06 15
KCS Keio Computer Society
?
Control by deep learning
Control by deep learningControl by deep learning
Control by deep learning
KCS Keio Computer Society
?
深层学习 第6章
深层学习 第6章深层学习 第6章
深层学习 第6章
KCS Keio Computer Society
?
Vector-Based navigation using grid-like representations in artificial agents
 Vector-Based navigation using grid-like representations in artificial agents Vector-Based navigation using grid-like representations in artificial agents
Vector-Based navigation using grid-like representations in artificial agents
KCS Keio Computer Society
?
文章生成の未解决问题
文章生成の未解决问题文章生成の未解决问题
文章生成の未解决问题
KCS Keio Computer Society
?
Word2vec alpha
Word2vec alphaWord2vec alpha
Word2vec alpha
KCS Keio Computer Society
?
テンソル代数
テンソル代数テンソル代数
テンソル代数
KCS Keio Computer Society
?
Hindsight experience replay
Hindsight experience replayHindsight experience replay
Hindsight experience replay
KCS Keio Computer Society
?
Kml 輪読514
Kml 輪読514Kml 輪読514
Kml 輪読514
KCS Keio Computer Society
?
ゼロから作るDeepLearning 5章 輪読
ゼロから作るDeepLearning 5章 輪読ゼロから作るDeepLearning 5章 輪読
ゼロから作るDeepLearning 5章 輪読
KCS Keio Computer Society
?
ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読
KCS Keio Computer Society
?
ゼロから作るDeepLearning 4章 輪読
ゼロから作るDeepLearning 4章 輪読ゼロから作るDeepLearning 4章 輪読
ゼロから作るDeepLearning 4章 輪読
KCS Keio Computer Society
?
Soft Actor Critic 解説
Soft Actor Critic 解説Soft Actor Critic 解説
Soft Actor Critic 解説
KCS Keio Computer Society
?
ゼロから作るDeepLearning 3.3~3.6章 輪読
ゼロから作るDeepLearning 3.3~3.6章 輪読ゼロから作るDeepLearning 3.3~3.6章 輪読
ゼロから作るDeepLearning 3.3~3.6章 輪読
KCS Keio Computer Society
?
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
KCS Keio Computer Society
?
Graph Convolutional Network 概説
Graph Convolutional Network 概説Graph Convolutional Network 概説
Graph Convolutional Network 概説
KCS Keio Computer Society
?
础滨を作ることと理解すること
础滨を作ることと理解すること础滨を作ることと理解すること
础滨を作ることと理解すること
KCS Keio Computer Society
?
Vector-Based navigation using grid-like representations in artificial agents
 Vector-Based navigation using grid-like representations in artificial agents Vector-Based navigation using grid-like representations in artificial agents
Vector-Based navigation using grid-like representations in artificial agents
KCS Keio Computer Society
?
ゼロから作るDeepLearning 3.3~3.6章 輪読
ゼロから作るDeepLearning 3.3~3.6章 輪読ゼロから作るDeepLearning 3.3~3.6章 輪読
ゼロから作るDeepLearning 3.3~3.6章 輪読
KCS Keio Computer Society
?
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
KCS Keio Computer Society
?

Recently uploaded (11)

実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
NTT DATA Technology & Innovation
?
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
Matsushita Laboratory
?
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
Industrial Technology Research Institute (ITRI)(工業技術研究院, 工研院)
?
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
sugiuralab
?
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
harmonylab
?
LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3
LFDT Tokyo Meetup
?
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
Matsushita Laboratory
?
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
sugiuralab
?
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
harmonylab
?
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
CRI Japan, Inc.
?
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
Matsushita Laboratory
?
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
NTT DATA Technology & Innovation
?
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
Matsushita Laboratory
?
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
Industrial Technology Research Institute (ITRI)(工業技術研究院, 工研院)
?
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
sugiuralab
?
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
harmonylab
?
LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3
LFDT Tokyo Meetup
?
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
Matsushita Laboratory
?
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
sugiuralab
?
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
harmonylab
?
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
CRI Japan, Inc.
?
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
Matsushita Laboratory
?

Large scale gan training for high fidelity natural