狠狠撸

狠狠撸Share a Scribd company logo
1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
Temporal DifferenceVariational Auto-Encoder
Presenter: Masahiro Suzuki, Matsuo Lab
2018/11/30(発表後一部修正)
輪読内容について
? Temporal Difference Variational Auto-Encoder
– Karol Gregor, Frederic Besse
? GregorさんはDRAWを提案した人
? ICLRに採録(オーラル,スコアが8,9,7)
? TD-VAEを提案した論文
– 系列情報を扱う深層生成モデル
– ある任意ステップまで「飛び越えて」推論ができる点がすごい
-> 汎用AIの大きな課題の一つである「時系列の抽象化」に挑んだ研究
? 本論文についての私見
– 強化学習(特にPOMDP)との関係を意識しており,世界モデル研究の1つと位置づけられる.
? どうでもいいけど最近「世界モデル」がバズワード化しないか勝手に心配している.
– 非常に素直なモデルだが,ぱっと見分かりづらい.
? ICLR版でだいぶ改善されている.
? 謝罪
– 関連研究についてあまり調べられませんでした.
– 完全版はまた別の勉強会(強化学習アーキテクチャとか)で話すかもしれない.
2
論文に載ってるTD-VAEの概要図
3
ちょっとよくわからない???
背景
4
研究背景
? 系列の生成モデルは様々な領域で応用されている.
– 音声合成(WaveNet,PixelRNN)
– 翻訳(NMT)
– 画像キャプショニング
? 本研究では部分観測環境の強化学習の問題を考える
– エージェントはこれまで収集した情報から計算した,世界の不確実性を表現する必要がある.
– モデルベースで考えると,エージェントは過去と一貫性のある遠い未来を想像しなければならない.
? ステップごとにプランニングするのは認知学的にも計算量的にも現実的ではない.
-> これらを一気に解決できるような世界モデルを考えたい
5
部分観測環境における世界モデルに求められること
? 著者らは次の3つの性質を同時に持つことが必要であるとしている.
1. データから抽象的な状態表現を学習して,状態表現を利用した予測を行える必要がある.
2. ある時間までの全ての観測データが与えられた下での,状態のフィルタリング分布の決定論的かつコード化され
た表現(信念状態)を学習しなければならない.
? この信念状態にはエージェントが世界について知っている全ての情報が含まれている.
? つまり,最適化するための行動に関する情報も含まれている.
3. 時間方向について抽象化している必要がある.
? ステップを飛び越えて(jumpy)未来を予測することができる.
? 時間的に離れたデータから(その間のステップを誤差逆伝播せずに)学習できる必要がある.
? 既存研究ではこれらをすべて満たす研究は存在しない.
-> Temporal Difference Variational Auto-Encoder (TD-VAE)を提案
6
既存の系列モデル
7
系列情報の扱い方:自己回帰モデル
系列データ(?1, … , ? ?)をモデル化する方法としては,自己回帰モデルと状態空間モデ
ルが知られている.
? 自己回帰モデル
– 尤度を条件付き分布の積で表す.
log ?(?1, … , ? ?) =
?
log ?(??|?1, … , ???1)
– RNNをつかって,これまでのデータを内部状態?にまとめることで簡単に計算できる.
? 欠点:
– 元の観測空間でしか学習しない(圧縮した表現を学習しない).
– 計算コストがかかる(各ステップでデコードとエンコードを繰り返す必要性).
– 不安定(実データを入れるRNNには,テスト時に前の予測が入ってくる). 8
? ? = ?(? ??1, ??)
系列情報の扱い方:状態空間モデル
? 状態空間モデル
– 状態系列? = (?1, … , ? ?)および観測系列? = (?1, … , ? ?)が与えられたときに,
とすると,ELBO(変分下界)は次のようになる.
? 特徴:
– 入力?を確率的な状態(潜在変数)?に圧縮する.
? ちなみに,この辺りの研究ではxとzを逆にしたりするらしい.
– 状態空間内での遷移が可能(自己回帰モデルのように毎回エンコードとデコードをする必要がない)
9
同時分布:?(?, ?) = ? ? ?? ???1 ?(??|??)
推論分布:?(?|?) = ? ? ?? ???1, ? ?(?) (自己回帰)
log ?(?) ≥ ? ?~? ?|?
?
log ? ?? ?? + log ? ?? ???1 ? log ? ?? ???1, ? ?(?)
???1
???1
??
??
TD-VAE
10
状態空間モデルにおける未来の入力の予測
? 時系列モデルでは,過去の入力が与えられた下での未来の入力を予測したい.
– つまり条件付き分布?(??+1, … , ? ?|?1, … , ??) の推論
? 状態空間モデルでは,推論分布を使って入力?から?を推論してから未来の入力を
生成する
– ?への推論は自己回帰的な事後分布? ? ? = ? ?(??|???1, ?)で計算していた.
– しかし,入力?における状態??を得るためには,???1の再サンプリングが必要であり,???1について
も???と考えると,?1から全て再サンプリングしなければならない.
11
? ??1
???1
? ?
??
フィルタリング分布と信念状態
? そこで,新たにフィルタリング分布 ?(??|?1, … , ??) を導入する.
– ??の推論は現在までの入力(?1, … , ??)のみに依存する(未来の?や他の時点の?には依存しない).
– 強化学習(POMDP)における信念状態といわれるものに相当.
? フィルタリング分布を使うと,未来の入力の予測分布は次のように導出できる.
? 信念状態とPOMDP
– POMDPにおける最適方策との関わりでこれまでも知られていたが,学習した深層モデルにおける信念状態
を考える研究は殆どなかった.
12
? ??1
???1
? ?
??
? ??+1, … , ? ? ?1, … , ?? = ? ??+1, … , ? ? ?? ? ?? ?1, . . , ?? ???
? ?? ?1, . . , ? ?
状態空間モデルにおける条件付き分布のELBO
? 状態空間モデルの尤度を条件付き分布の積で表す(自己回帰的に分解).
– このとき条件付き分布のELBOは,信念状態?(??|?≤?)を導入することで,2つの潜在変数( ???1 , ??)だけを
使って表現できる.
13
信念状態 推論モデル
信念状態
さりげなく過去への推論になってる
log ? ? =
?
log ?(? ?|?<?)
log ?(??|?<?) ≥ ? ?(? ??1 ? ?|?≤?) log
?(??, ???1 ??|?<?)
? ???1, ?? ?≤?
= ? ?(? ?|?≤?)?(? ??1|? ?,?≤?)[log ? ?? ?? + log ?(???1|?<?) + log ?(??|???1)
? log ? ?? ?≤? ? log ?(???1|??, ?≤?)]
生成モデル生成モデル
? ??1
???1
? ?
??
信念状態のコードの導入
? 信念状態の「コード」?? = ?(???1, ??)を導入する.
– ?は任意の関数(RNNとか)
– すると信念状態は? ?? ?≤? = ?(??|??)と表せる(入力が?になる).
– また,推論分布はコードを使って? ???1 ??, ?≤? = ?(???1|??, ???1, ??)と
なる.
? 以上より,目的関数(ELBO)は次のようになる.
14
信念状態 推論モデル
信念状態
? log ? ? ?? ?? ? log ?(???1|??, ???1, ??)]
生成モデル生成モデル
? = ? ? ?(? ?|? ?)?(? ??1|? ?,? ??1,? ?)[log ? ?? ?? + log ? ?(???1|???1) + log ?(??|???1)
???1
???1
??
??
???1 ??
???1
???1
??
??
Jumpy状態のモデリング
? ここまで導出したモデルは,あるステップから次のステップで状態がどのように変わる
かを表したモデル
? しかし実際のプランニングでは,各ステップで観測を受け取って単純に行動する訳では
ない.
– 例:海外旅行のプランニングでは,旅行オプションの議論,目的地の選択,チケット購入など
– それぞれは異なるタイムスケールになっており,一秒ごとにプランニングを立てる訳ではない.
-> 直接将来の状態を想像できる(jumpy)モデルが必要
? その他にも未来を直接モデル化する幾つかのモチベーションがある.
– 未来からの訓練信号は時間ステップ間の小さな変化に対して頑健であるべき.
– 時間を任意に取りたい場合,データの時間的なサブサンプリングと独立であるべき.
– Jumpy予測は,時間効率的にもいい.
? 類似の研究はあるが,状態の学習を行わず,完全観測問題のみに焦点を当てている.
15
TD-VAE
? 前ページの議論から,時間について抽象化できるようにモデルを拡張する.
– ?から? + 1の遷移をモデル化するのではなく,任意のステップ ?1 ,?2 間の状態をjumpyに推論するモデルを考える.
– ELBOは次のように変わる(時間ステップが変わっただけ)
– 学習するときには?2 ? ?1として[1, ?]の任意の範囲をサンプリングして学習する.
? ?(??2
|??1
)と?(??1
|??2
, ??1
, ??2
)はどう設計するの????
– これらの分布は任意の時間幅で飛べるらしい(?2 ? ?1 = ??として?(?2|?1, ??)といった感じ)
– arXiv版をみると,
という感じでパラメータ化している.
16
? ?1,?2
= ? ? ?(? ?2|? ?2)?(? ?1|? ?2,? ?1,? ?2)[log ? ??2
??2
+ log ? ?(??1
|??1
) + log ?(??2
|??1
)
? log ? ? ??2
??2
? log ?(??1
|??2
, ??1
, ??2
)]
改めて図をみる
17
やっぱりよくわからん???
Gregor先生のお気持ち解説(4.2節)を読むといいかも
ポイント
? 重要なのは,第2項と第5項
– 学習するときには(先ほどの図では)KLダイバージェンスになっている.
– これはつまり,現在の推論を未来からの推論と近づけているということ
– ?1の時点で利用可能な情報だけを使って,どれだけ未来からの推論と同じくらいの推論ができたか?を評価して
いる
-> CVAEやGQNなどと共通する考え方
– “TD”-VAEという名前は,このあたりとTD誤差との関連性から. 18
? ??1
???1
? ?
??
???1 ??
? ?1,?2
= ? ? ?(? ?2|? ?2)?(? ?1|? ?2,? ?1,? ?2)[log ? ? ?2
??2
+ log ? ?(??1
|??1
) + log ?(??2
|??1
)
? log ? ? ??2
??2
? log ?(??1
|??2
, ??1
, ??2
)]
? ??[?(??1
|??2
, ??1
, ??2
)| ?(??1
??1
)]
補足:VAE×RNN Zoo
? VAE×RNNの研究一覧(生成モデル(上段)で分類,VSMC系は載せていない)
※分布(矢印)は概ね時刻?に関するもののみ描画
???1
???1
??
??
Deep Markov Model [Krishnan+ 17]
(Deep Kalman Filter [Krishnan+ 15])
※推論分布は論文内でいくつか提案されている
? ??1 ? ?
???1
???1
??
??
SRNN [Fraccaro+ 16]
? ??1 ? ?
? ??1 ? ?
???1
???1
??
??
TD-VAE [Gregor+ 18]
???1 ??
???1
???1
??
??
VRNN [Chung+ 16]
? ??1 ? ?
???1
???1
??
??
STORN [Bayer+ 15]
? ??1 ? ?
? ??1 ? ?
???1
???1
??
??
Z-forcing [Goyal+ 17]
? ??1 ? ?
???1 ??
? ?????(??) = ?(??|?1:??1, ?1:??1)
? ?????(??) = ?(??) ? ?????(??) = ?(??|???1, ?)
???1
???1
??
??
状態空間モデル
※actionは省略
? ?, ? = Π ? ? ?? ?? ? ?? ???1
???1
??
??
???1
? ?, ? = Π ? ? ?? ?1:??1, ?1:? ? ?????(??)
???1
??
??
???1
? ?, ?
= Π ? ? ??+1 ?1:?, ?1:? ? ?????(??)
19
実験
20
実験1
? 部分観測なMiniPacman [Racanie?re et al., 2017]
– エージェントは幽霊を避けながら迷路内のすべての食物を食べようとする.
– 観測できるのは5×5のウィンドウ(右)
-> 高いスコアを達成するためには(過去の経験や環境の不確実性を考慮しつつ)信念状態を形成する必要がある.
? この実験では,non-jumpyなTD-VAEが適切に学習できるか確認する.
– 標準的なELBOの下での2つの状態空間モデルと比較
-> TD-VAEのELBOの有効性を評価
21
Under review as aconference paper at ICLR 2019
ELBO ? logp(x) (est.)
Filtering model 0.1169± 0.0003 0.0962± 0.0007
Mean-?eld model 0.1987± 0.0004 0.1678± 0.0010
TD-VAE 0.0773 ± 0.0002 0.0553 ± 0.0006
Figure 2: MiniPacman. Left: A full frame from the game (size 15 ? 19). Pacman (green) is
navigating the mazetrying to eat all the food (blue) whilebeing chased by aghost (red). Top right:
A sequence of observations, consisting of consecutive5?5 windowsaround Pacman. Bottom right:
ELBO and estimated negativelog probability on atest set of MiniPacman sequences. Lower isbetter.
Log probability isestimated using importance sampling with theencoder as proposal.
Under review asaconference paper at ICLR 2019
ELBO ? logp(x) (est.)
Filtering model 0.1169± 0.0003 0.0962± 0.0007
Mean-?eld model 0.1987± 0.0004 0.1678± 0.0010
TD-VAE 0.0773 ± 0.0002 0.0553 ± 0.0006
Figure 2: MiniPacman. Left: A full frame from the game (size 15 ? 19). Pacman (green) is
navigating themazetrying to eat all thefood (blue) whilebeing chased by aghost (red). Top right:
A sequenceof observations, consisting of consecutive5?5 windowsaround Pacman. Bottom right:
ELBO and estimated negativelog probability on atest set of MiniPacman sequences. Lower isbetter.
Log probability isestimated using importance sampling with theencoder asproposal.
実験1
? 実験結果
– テスト集合に対する(恐らく負の)変分下界と負の対数尤度での評価
– 小さい方が良いモデル.
– TD-VAEが最も良い結果
– 平均場モデルが低い結果になっている
? 平均場モデルでは??が信念状態のコードになっているが,フィルタリングモデルではそうなっていないことに注意(フィルタリングモデルでは,
エンコーダで前のステップの?に依存しているので)
信念状態を得るために単純にエンコーダを制限するだけでは精度が下がる
22
Under review asaconference paper at ICLR 2019
ELBO ? logp(x) (est.)
Filtering model 0.1169± 0.0003 0.0962± 0.0007
Mean-?eld model 0.1987± 0.0004 0.1678± 0.0010
TD-VAE 0.0773 ± 0.0002 0.0553 ± 0.0006
Figure 2: MiniPacman. Left: A full frame from the game (size 15 ? 19). Pacman (green) is
navigating themazetrying to eat all thefood (blue) whilebeing chased by aghost (red). Top right:
A sequenceof observations, consisting of consecutive5?5 windowsaround Pacman. Bottom right:
ELBO and estimated negativelog probability on atest set of MiniPacman sequences. Lower isbetter.
Log probability isestimated using importance sampling with theencoder asproposal.
実験2
? Moving MNIST
– 各ステップで移動するMNIST
– [1,4]の範囲でステップを飛び越えて学習し,生成できるかを実験
? 実験結果:
– ステップ数を飛ばしても生成できた.
– (明示的に書いてないが恐らく)一番左が元画像で各列が飛ばしたステップ数[1,4]に対応している
23
Figure 2: MiniPacman. Left: A full frame from the game (size 15 ? 19). Pacman (green) is
navigating themazetrying to eat all the food (blue) whilebeing chased by aghost (red). Top right:
A sequence of observations, consisting of consecutive5?5 windowsaround Pacman. Bottom right:
ELBO and estimated negativelog probability on atest set of MiniPacman sequences. Lower isbetter.
Log probability isestimated using importance sampling with theencoder asproposal.
Figure 3: Moving MNIST. Left: Rowsare example input sequences. Right: Jumpy rollouts from
themodel. Weseethat themodel isable to roll forward by skipping frames, keeping thecorrect digit
and thedirection of motion.
5.2 MOVING MNIST
In thisexperiment, weshow that themodel isable to learn thestateand roll forward in jumps. We
consider sequencesof length 20 of images of MNIST digits. For each sequence, arandom digit from
thedataset ischosen, aswell asthedirection of movement (left or right). At each timestep, thedigit
movesby one pixel in the chosen direction, asshown in Figure 3. Wetrain the model with t1 and
t2 separated by arandom amount t2 ? t1 from theinterval [1, 4]. Wewould liketo seewhether the
model at agiven timecan roll out asimulated experience in timesteps t1 = t + δ1, t2 = t1 + δ2, . . .
with δ1, δ2, . . . > 1, without considering theinputsin between thesetimepoints. Notethat it isnot
suf?cient to predict thefuture inputs xt 1 , . . . asthey do not contain information about whether the
digit movesleft or right. Weneed to sample astate that contains this information.
Weroll out asequence from themodel asfollows: (a) bt iscomputed by the aggregation recurrent
network from observations up to time t; (b) a state zt is sampled from pB (zt | bt ); (c) a sequence
0 0
ELBO ? logp(x) (est.)
Filtering model 0.1169± 0.0003 0.0962± 0.0007
Mean-?eld model 0.1987± 0.0004 0.1678± 0.0010
TD-VAE 0.0773 ± 0.0002 0.0553 ± 0.0006
re 2: MiniPacman. Left: A full frame from the game (size 15 ? 19). Pacman (green) is
gating themazetrying to eat all the food (blue) whilebeing chased by aghost (red). Top right:
quence of observations, consisting of consecutive5?5 windowsaround Pacman. Bottom right:
O and estimated negativelog probability on atest set of MiniPacman sequences. Lower isbetter.
probability isestimated using importance sampling with theencoder asproposal.
re 3: Moving MNIST. Left: Rowsare example input sequences. Right: Jumpy rollouts from
model. Wesee that themodel isable to roll forward by skipping frames, keeping thecorrect digit
the direction of motion.
実験3
? ノイズの多い高調波発振器から得られた1次元シーケンス
– 各観測で情報がほとんどなくても(ノイズが入っていても)モデルが状態を構築できることを示す.
– RNNにはLSTMを用いて,階層TD-VAEを使って学習.
? bが階層化している(説明は省略)
– ステップ幅は確率0.8で[1,10]の間,確率0.2で[1,120]の間として学習
? 実験結果:
– 20ステップ及び100ステップ飛ばした結果
– ノイズが多い観測データでも生成できている.
24
Under review asaconference paper at ICLR 2019
Figure4: Skip-state prediction for 1D signal. Theinput isgenerated by anoisy harmonic oscillator.
Rollouts consist of (a) ajumpy state transition with either dt = 20 or dt = 100, followed by 20 state
transitions with dt = 1. The model is able to create a state and predict it into the future, correctly
predicting frequency and magnitude of thesignal.
predict asmuch aspossible about thestate, which consists of frequency, magnitude and position, and
it isonly theposition that cannot beaccurately predicted.
実験4
? DeepMInd Lab環境
– アーキテクチャはConvDRAWを参考したものに変更(恐らくGQNと同じ使い方)
? 実験結果:
– モデルの信念の確認(ある信念からランダムに?を生成)
– 左の画像:それぞれの?サンプルから画像を生成
-> 同じフレームが生成できている
– 右の画像:それぞれの?サンプルから任意にステップを飛んで生成
? 各信念内では同じような画像が生成されているが,信念によって出てくるフレームが異なる
->各信念で取りうる未来が異なっている
25
実験4
? 実験結果:
– ステップを飛び越えて行動を進めることができる.
– 図をどう見ればいいかは正直不明(rolloutと書いているので,多分MNISTと同じ感じ)
26
まとめ
27
まとめ
? 本研究では,時系列を扱う世界モデルとしてTD-VAEを提案した.
– 特に,時間方向の抽象化を意識している.
– arXiv版ではあまり強調されていなかった気がする.
? 感想:
– 世界モデルにおいて「時間を抽象化」できるようになった初めての研究(ICLR的には結構受けそう)
– 個人的にはGQNよりも好き.
– 細かい記述がなかったりするので,とりあえずPixyzとかで実装して動作確認してみたい(公式の実装は公開され
ていない).
28

More Related Content

What's hot (20)

深层生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深层生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深层生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深层生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
Masahiro Suzuki
?
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
Deep Learning JP
?
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
?
深层生成モデルを用いたマルチモーダル学习
深层生成モデルを用いたマルチモーダル学习深层生成モデルを用いたマルチモーダル学习
深层生成モデルを用いたマルチモーダル学习
Masahiro Suzuki
?
【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习
cvpaper. challenge
?
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
Deep Learning JP
?
【DL輪読会】Transformers are Sample Efficient World Models
【DL輪読会】Transformers are Sample Efficient World Models【DL輪読会】Transformers are Sample Efficient World Models
【DL輪読会】Transformers are Sample Efficient World Models
Deep Learning JP
?
贰尝叠翱型痴础贰のダメなところ
贰尝叠翱型痴础贰のダメなところ贰尝叠翱型痴础贰のダメなところ
贰尝叠翱型痴础贰のダメなところ
KCS Keio Computer Society
?
[DL輪読会]モデルベース強化学習とEnergy Based Model
[DL輪読会]モデルベース強化学習とEnergy Based Model[DL輪読会]モデルベース強化学習とEnergy Based Model
[DL輪読会]モデルベース強化学習とEnergy Based Model
Deep Learning JP
?
グラフニューラルネットワークとグラフ组合せ问题
グラフニューラルネットワークとグラフ组合せ问题グラフニューラルネットワークとグラフ组合せ问题
グラフニューラルネットワークとグラフ组合せ问题
joisino
?
摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习
Deep Learning JP
?
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
Deep Learning JP
?
强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
Deep Learning JP
?
翱辫迟颈尘颈锄别谤入门&最新动向
翱辫迟颈尘颈锄别谤入门&最新动向翱辫迟颈尘颈锄别谤入门&最新动向
翱辫迟颈尘颈锄别谤入门&最新动向
Motokawa Tetsuya
?
ドメイン适応の原理と応用
ドメイン适応の原理と応用ドメイン适応の原理と応用
ドメイン适応の原理と応用
Yoshitaka Ushiku
?
[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Meta Reinforcement Learning[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Meta Reinforcement Learning
Deep Learning JP
?
「世界モデル」と関连研究について
「世界モデル」と関连研究について「世界モデル」と関连研究について
「世界モデル」と関连研究について
Masahiro Suzuki
?
Active Convolution, Deformable Convolution ―形状?スケールを学習可能なConvolution―
Active Convolution, Deformable Convolution ―形状?スケールを学習可能なConvolution―Active Convolution, Deformable Convolution ―形状?スケールを学習可能なConvolution―
Active Convolution, Deformable Convolution ―形状?スケールを学習可能なConvolution―
Yosuke Shinya
?
深层生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深层生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深层生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深层生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
Masahiro Suzuki
?
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
Deep Learning JP
?
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
?
深层生成モデルを用いたマルチモーダル学习
深层生成モデルを用いたマルチモーダル学习深层生成モデルを用いたマルチモーダル学习
深层生成モデルを用いたマルチモーダル学习
Masahiro Suzuki
?
【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习
cvpaper. challenge
?
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
Deep Learning JP
?
【DL輪読会】Transformers are Sample Efficient World Models
【DL輪読会】Transformers are Sample Efficient World Models【DL輪読会】Transformers are Sample Efficient World Models
【DL輪読会】Transformers are Sample Efficient World Models
Deep Learning JP
?
[DL輪読会]モデルベース強化学習とEnergy Based Model
[DL輪読会]モデルベース強化学習とEnergy Based Model[DL輪読会]モデルベース強化学習とEnergy Based Model
[DL輪読会]モデルベース強化学習とEnergy Based Model
Deep Learning JP
?
グラフニューラルネットワークとグラフ组合せ问题
グラフニューラルネットワークとグラフ组合せ问题グラフニューラルネットワークとグラフ组合せ问题
グラフニューラルネットワークとグラフ组合せ问题
joisino
?
摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习
Deep Learning JP
?
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
Deep Learning JP
?
强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
Deep Learning JP
?
翱辫迟颈尘颈锄别谤入门&最新动向
翱辫迟颈尘颈锄别谤入门&最新动向翱辫迟颈尘颈锄别谤入门&最新动向
翱辫迟颈尘颈锄别谤入门&最新动向
Motokawa Tetsuya
?
ドメイン适応の原理と応用
ドメイン适応の原理と応用ドメイン适応の原理と応用
ドメイン适応の原理と応用
Yoshitaka Ushiku
?
[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Meta Reinforcement Learning[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Meta Reinforcement Learning
Deep Learning JP
?
「世界モデル」と関连研究について
「世界モデル」と関连研究について「世界モデル」と関连研究について
「世界モデル」と関连研究について
Masahiro Suzuki
?
Active Convolution, Deformable Convolution ―形状?スケールを学習可能なConvolution―
Active Convolution, Deformable Convolution ―形状?スケールを学習可能なConvolution―Active Convolution, Deformable Convolution ―形状?スケールを学習可能なConvolution―
Active Convolution, Deformable Convolution ―形状?スケールを学習可能なConvolution―
Yosuke Shinya
?

Similar to [DL輪読会]Temporal DifferenceVariationalAuto-Encoder (20)

骋础狈の基本
骋础狈の基本骋础狈の基本
骋础狈の基本
sohtakannan
?
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Preferred Networks
?
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
Morpho, Inc.
?
Analyze by StatsModels or Numpy
Analyze by StatsModels or NumpyAnalyze by StatsModels or Numpy
Analyze by StatsModels or Numpy
Toshiki NOGUCHI
?
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?
KDD2014 勉強会
KDD2014 勉強会KDD2014 勉強会
KDD2014 勉強会
Ichigaku Takigawa
?
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
Deep Learning JP
?
第3回nips読み会?関西『variational inference foundations and modern methods』
第3回nips読み会?関西『variational inference  foundations and modern methods』第3回nips読み会?関西『variational inference  foundations and modern methods』
第3回nips読み会?関西『variational inference foundations and modern methods』
koji ochiai
?
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Masaya Kaneko
?
Machine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEEMachine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEE
Antonio Tejero de Pablos
?
【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】
【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】
【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】
Naoki Hayashi
?
効用最大化理论の観点から见る强化学习
効用最大化理论の観点から见る强化学习効用最大化理论の観点から见る强化学习
効用最大化理论の観点から见る强化学习
Kenta Ishii
?
プログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズムプログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズム
Takuya Akiba
?
机械学习モデルの列挙
机械学习モデルの列挙机械学习モデルの列挙
机械学习モデルの列挙
Satoshi Hara
?
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞奥别产尘颈苍颈苍驳#17
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞奥别产尘颈苍颈苍驳#17闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞奥别产尘颈苍颈苍驳#17
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞奥别产尘颈苍颈苍驳#17
Yuya Unno
?
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9
Yuya Unno
?
充足可能性问题のいろいろ
充足可能性问题のいろいろ充足可能性问题のいろいろ
充足可能性问题のいろいろ
Hiroshi Yamashita
?
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Preferred Networks
?
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
Morpho, Inc.
?
Analyze by StatsModels or Numpy
Analyze by StatsModels or NumpyAnalyze by StatsModels or Numpy
Analyze by StatsModels or Numpy
Toshiki NOGUCHI
?
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
Deep Learning JP
?
第3回nips読み会?関西『variational inference foundations and modern methods』
第3回nips読み会?関西『variational inference  foundations and modern methods』第3回nips読み会?関西『variational inference  foundations and modern methods』
第3回nips読み会?関西『variational inference foundations and modern methods』
koji ochiai
?
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Masaya Kaneko
?
【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】
【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】
【招待讲演】パラメータ制约付き行列分解のベイズ汎化误差解析【厂迟补迟蝉惭尝若手シンポ2020】
Naoki Hayashi
?
効用最大化理论の観点から见る强化学习
効用最大化理论の観点から见る强化学习効用最大化理论の観点から见る强化学习
効用最大化理论の観点から见る强化学习
Kenta Ishii
?
プログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズムプログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズム
Takuya Akiba
?
机械学习モデルの列挙
机械学习モデルの列挙机械学习モデルの列挙
机械学习モデルの列挙
Satoshi Hara
?
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞奥别产尘颈苍颈苍驳#17
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞奥别产尘颈苍颈苍驳#17闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞奥别产尘颈苍颈苍驳#17
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞奥别产尘颈苍颈苍驳#17
Yuya Unno
?
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9
Yuya Unno
?
充足可能性问题のいろいろ
充足可能性问题のいろいろ充足可能性问题のいろいろ
充足可能性问题のいろいろ
Hiroshi Yamashita
?

More from Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
?
【顿尝轮読会】事前学习用データセットについて
【顿尝轮読会】事前学习用データセットについて【顿尝轮読会】事前学习用データセットについて
【顿尝轮読会】事前学习用データセットについて
Deep Learning JP
?
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
?
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
?
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
?
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
Deep Learning JP
?
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
?
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
?
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
?
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
?
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
?
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
?
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
?
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
?
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
?
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
?
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
?
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
?
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
?
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
?
【顿尝轮読会】事前学习用データセットについて
【顿尝轮読会】事前学习用データセットについて【顿尝轮読会】事前学习用データセットについて
【顿尝轮読会】事前学习用データセットについて
Deep Learning JP
?
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
?
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
?
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
?
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
Deep Learning JP
?
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
?
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
?
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
?
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
?
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
?
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
?
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
?
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
?
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
?
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
?
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
?
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
?
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
?

[DL輪読会]Temporal DifferenceVariationalAuto-Encoder

  • 1. 1 DEEP LEARNING JP [DL Papers] http://deeplearning.jp/ Temporal DifferenceVariational Auto-Encoder Presenter: Masahiro Suzuki, Matsuo Lab 2018/11/30(発表後一部修正)
  • 2. 輪読内容について ? Temporal Difference Variational Auto-Encoder – Karol Gregor, Frederic Besse ? GregorさんはDRAWを提案した人 ? ICLRに採録(オーラル,スコアが8,9,7) ? TD-VAEを提案した論文 – 系列情報を扱う深層生成モデル – ある任意ステップまで「飛び越えて」推論ができる点がすごい -> 汎用AIの大きな課題の一つである「時系列の抽象化」に挑んだ研究 ? 本論文についての私見 – 強化学習(特にPOMDP)との関係を意識しており,世界モデル研究の1つと位置づけられる. ? どうでもいいけど最近「世界モデル」がバズワード化しないか勝手に心配している. – 非常に素直なモデルだが,ぱっと見分かりづらい. ? ICLR版でだいぶ改善されている. ? 謝罪 – 関連研究についてあまり調べられませんでした. – 完全版はまた別の勉強会(強化学習アーキテクチャとか)で話すかもしれない. 2
  • 5. 研究背景 ? 系列の生成モデルは様々な領域で応用されている. – 音声合成(WaveNet,PixelRNN) – 翻訳(NMT) – 画像キャプショニング ? 本研究では部分観測環境の強化学習の問題を考える – エージェントはこれまで収集した情報から計算した,世界の不確実性を表現する必要がある. – モデルベースで考えると,エージェントは過去と一貫性のある遠い未来を想像しなければならない. ? ステップごとにプランニングするのは認知学的にも計算量的にも現実的ではない. -> これらを一気に解決できるような世界モデルを考えたい 5
  • 6. 部分観測環境における世界モデルに求められること ? 著者らは次の3つの性質を同時に持つことが必要であるとしている. 1. データから抽象的な状態表現を学習して,状態表現を利用した予測を行える必要がある. 2. ある時間までの全ての観測データが与えられた下での,状態のフィルタリング分布の決定論的かつコード化され た表現(信念状態)を学習しなければならない. ? この信念状態にはエージェントが世界について知っている全ての情報が含まれている. ? つまり,最適化するための行動に関する情報も含まれている. 3. 時間方向について抽象化している必要がある. ? ステップを飛び越えて(jumpy)未来を予測することができる. ? 時間的に離れたデータから(その間のステップを誤差逆伝播せずに)学習できる必要がある. ? 既存研究ではこれらをすべて満たす研究は存在しない. -> Temporal Difference Variational Auto-Encoder (TD-VAE)を提案 6
  • 8. 系列情報の扱い方:自己回帰モデル 系列データ(?1, … , ? ?)をモデル化する方法としては,自己回帰モデルと状態空間モデ ルが知られている. ? 自己回帰モデル – 尤度を条件付き分布の積で表す. log ?(?1, … , ? ?) = ? log ?(??|?1, … , ???1) – RNNをつかって,これまでのデータを内部状態?にまとめることで簡単に計算できる. ? 欠点: – 元の観測空間でしか学習しない(圧縮した表現を学習しない). – 計算コストがかかる(各ステップでデコードとエンコードを繰り返す必要性). – 不安定(実データを入れるRNNには,テスト時に前の予測が入ってくる). 8 ? ? = ?(? ??1, ??)
  • 9. 系列情報の扱い方:状態空間モデル ? 状態空間モデル – 状態系列? = (?1, … , ? ?)および観測系列? = (?1, … , ? ?)が与えられたときに, とすると,ELBO(変分下界)は次のようになる. ? 特徴: – 入力?を確率的な状態(潜在変数)?に圧縮する. ? ちなみに,この辺りの研究ではxとzを逆にしたりするらしい. – 状態空間内での遷移が可能(自己回帰モデルのように毎回エンコードとデコードをする必要がない) 9 同時分布:?(?, ?) = ? ? ?? ???1 ?(??|??) 推論分布:?(?|?) = ? ? ?? ???1, ? ?(?) (自己回帰) log ?(?) ≥ ? ?~? ?|? ? log ? ?? ?? + log ? ?? ???1 ? log ? ?? ???1, ? ?(?) ???1 ???1 ?? ??
  • 11. 状態空間モデルにおける未来の入力の予測 ? 時系列モデルでは,過去の入力が与えられた下での未来の入力を予測したい. – つまり条件付き分布?(??+1, … , ? ?|?1, … , ??) の推論 ? 状態空間モデルでは,推論分布を使って入力?から?を推論してから未来の入力を 生成する – ?への推論は自己回帰的な事後分布? ? ? = ? ?(??|???1, ?)で計算していた. – しかし,入力?における状態??を得るためには,???1の再サンプリングが必要であり,???1について も???と考えると,?1から全て再サンプリングしなければならない. 11 ? ??1 ???1 ? ? ??
  • 12. フィルタリング分布と信念状態 ? そこで,新たにフィルタリング分布 ?(??|?1, … , ??) を導入する. – ??の推論は現在までの入力(?1, … , ??)のみに依存する(未来の?や他の時点の?には依存しない). – 強化学習(POMDP)における信念状態といわれるものに相当. ? フィルタリング分布を使うと,未来の入力の予測分布は次のように導出できる. ? 信念状態とPOMDP – POMDPにおける最適方策との関わりでこれまでも知られていたが,学習した深層モデルにおける信念状態 を考える研究は殆どなかった. 12 ? ??1 ???1 ? ? ?? ? ??+1, … , ? ? ?1, … , ?? = ? ??+1, … , ? ? ?? ? ?? ?1, . . , ?? ??? ? ?? ?1, . . , ? ?
  • 13. 状態空間モデルにおける条件付き分布のELBO ? 状態空間モデルの尤度を条件付き分布の積で表す(自己回帰的に分解). – このとき条件付き分布のELBOは,信念状態?(??|?≤?)を導入することで,2つの潜在変数( ???1 , ??)だけを 使って表現できる. 13 信念状態 推論モデル 信念状態 さりげなく過去への推論になってる log ? ? = ? log ?(? ?|?<?) log ?(??|?<?) ≥ ? ?(? ??1 ? ?|?≤?) log ?(??, ???1 ??|?<?) ? ???1, ?? ?≤? = ? ?(? ?|?≤?)?(? ??1|? ?,?≤?)[log ? ?? ?? + log ?(???1|?<?) + log ?(??|???1) ? log ? ?? ?≤? ? log ?(???1|??, ?≤?)] 生成モデル生成モデル ? ??1 ???1 ? ? ??
  • 14. 信念状態のコードの導入 ? 信念状態の「コード」?? = ?(???1, ??)を導入する. – ?は任意の関数(RNNとか) – すると信念状態は? ?? ?≤? = ?(??|??)と表せる(入力が?になる). – また,推論分布はコードを使って? ???1 ??, ?≤? = ?(???1|??, ???1, ??)と なる. ? 以上より,目的関数(ELBO)は次のようになる. 14 信念状態 推論モデル 信念状態 ? log ? ? ?? ?? ? log ?(???1|??, ???1, ??)] 生成モデル生成モデル ? = ? ? ?(? ?|? ?)?(? ??1|? ?,? ??1,? ?)[log ? ?? ?? + log ? ?(???1|???1) + log ?(??|???1) ???1 ???1 ?? ?? ???1 ?? ???1 ???1 ?? ??
  • 15. Jumpy状態のモデリング ? ここまで導出したモデルは,あるステップから次のステップで状態がどのように変わる かを表したモデル ? しかし実際のプランニングでは,各ステップで観測を受け取って単純に行動する訳では ない. – 例:海外旅行のプランニングでは,旅行オプションの議論,目的地の選択,チケット購入など – それぞれは異なるタイムスケールになっており,一秒ごとにプランニングを立てる訳ではない. -> 直接将来の状態を想像できる(jumpy)モデルが必要 ? その他にも未来を直接モデル化する幾つかのモチベーションがある. – 未来からの訓練信号は時間ステップ間の小さな変化に対して頑健であるべき. – 時間を任意に取りたい場合,データの時間的なサブサンプリングと独立であるべき. – Jumpy予測は,時間効率的にもいい. ? 類似の研究はあるが,状態の学習を行わず,完全観測問題のみに焦点を当てている. 15
  • 16. TD-VAE ? 前ページの議論から,時間について抽象化できるようにモデルを拡張する. – ?から? + 1の遷移をモデル化するのではなく,任意のステップ ?1 ,?2 間の状態をjumpyに推論するモデルを考える. – ELBOは次のように変わる(時間ステップが変わっただけ) – 学習するときには?2 ? ?1として[1, ?]の任意の範囲をサンプリングして学習する. ? ?(??2 |??1 )と?(??1 |??2 , ??1 , ??2 )はどう設計するの???? – これらの分布は任意の時間幅で飛べるらしい(?2 ? ?1 = ??として?(?2|?1, ??)といった感じ) – arXiv版をみると, という感じでパラメータ化している. 16 ? ?1,?2 = ? ? ?(? ?2|? ?2)?(? ?1|? ?2,? ?1,? ?2)[log ? ??2 ??2 + log ? ?(??1 |??1 ) + log ?(??2 |??1 ) ? log ? ? ??2 ??2 ? log ?(??1 |??2 , ??1 , ??2 )]
  • 18. ポイント ? 重要なのは,第2項と第5項 – 学習するときには(先ほどの図では)KLダイバージェンスになっている. – これはつまり,現在の推論を未来からの推論と近づけているということ – ?1の時点で利用可能な情報だけを使って,どれだけ未来からの推論と同じくらいの推論ができたか?を評価して いる -> CVAEやGQNなどと共通する考え方 – “TD”-VAEという名前は,このあたりとTD誤差との関連性から. 18 ? ??1 ???1 ? ? ?? ???1 ?? ? ?1,?2 = ? ? ?(? ?2|? ?2)?(? ?1|? ?2,? ?1,? ?2)[log ? ? ?2 ??2 + log ? ?(??1 |??1 ) + log ?(??2 |??1 ) ? log ? ? ??2 ??2 ? log ?(??1 |??2 , ??1 , ??2 )] ? ??[?(??1 |??2 , ??1 , ??2 )| ?(??1 ??1 )]
  • 19. 補足:VAE×RNN Zoo ? VAE×RNNの研究一覧(生成モデル(上段)で分類,VSMC系は載せていない) ※分布(矢印)は概ね時刻?に関するもののみ描画 ???1 ???1 ?? ?? Deep Markov Model [Krishnan+ 17] (Deep Kalman Filter [Krishnan+ 15]) ※推論分布は論文内でいくつか提案されている ? ??1 ? ? ???1 ???1 ?? ?? SRNN [Fraccaro+ 16] ? ??1 ? ? ? ??1 ? ? ???1 ???1 ?? ?? TD-VAE [Gregor+ 18] ???1 ?? ???1 ???1 ?? ?? VRNN [Chung+ 16] ? ??1 ? ? ???1 ???1 ?? ?? STORN [Bayer+ 15] ? ??1 ? ? ? ??1 ? ? ???1 ???1 ?? ?? Z-forcing [Goyal+ 17] ? ??1 ? ? ???1 ?? ? ?????(??) = ?(??|?1:??1, ?1:??1) ? ?????(??) = ?(??) ? ?????(??) = ?(??|???1, ?) ???1 ???1 ?? ?? 状態空間モデル ※actionは省略 ? ?, ? = Π ? ? ?? ?? ? ?? ???1 ???1 ?? ?? ???1 ? ?, ? = Π ? ? ?? ?1:??1, ?1:? ? ?????(??) ???1 ?? ?? ???1 ? ?, ? = Π ? ? ??+1 ?1:?, ?1:? ? ?????(??) 19
  • 21. 実験1 ? 部分観測なMiniPacman [Racanie?re et al., 2017] – エージェントは幽霊を避けながら迷路内のすべての食物を食べようとする. – 観測できるのは5×5のウィンドウ(右) -> 高いスコアを達成するためには(過去の経験や環境の不確実性を考慮しつつ)信念状態を形成する必要がある. ? この実験では,non-jumpyなTD-VAEが適切に学習できるか確認する. – 標準的なELBOの下での2つの状態空間モデルと比較 -> TD-VAEのELBOの有効性を評価 21 Under review as aconference paper at ICLR 2019 ELBO ? logp(x) (est.) Filtering model 0.1169± 0.0003 0.0962± 0.0007 Mean-?eld model 0.1987± 0.0004 0.1678± 0.0010 TD-VAE 0.0773 ± 0.0002 0.0553 ± 0.0006 Figure 2: MiniPacman. Left: A full frame from the game (size 15 ? 19). Pacman (green) is navigating the mazetrying to eat all the food (blue) whilebeing chased by aghost (red). Top right: A sequence of observations, consisting of consecutive5?5 windowsaround Pacman. Bottom right: ELBO and estimated negativelog probability on atest set of MiniPacman sequences. Lower isbetter. Log probability isestimated using importance sampling with theencoder as proposal. Under review asaconference paper at ICLR 2019 ELBO ? logp(x) (est.) Filtering model 0.1169± 0.0003 0.0962± 0.0007 Mean-?eld model 0.1987± 0.0004 0.1678± 0.0010 TD-VAE 0.0773 ± 0.0002 0.0553 ± 0.0006 Figure 2: MiniPacman. Left: A full frame from the game (size 15 ? 19). Pacman (green) is navigating themazetrying to eat all thefood (blue) whilebeing chased by aghost (red). Top right: A sequenceof observations, consisting of consecutive5?5 windowsaround Pacman. Bottom right: ELBO and estimated negativelog probability on atest set of MiniPacman sequences. Lower isbetter. Log probability isestimated using importance sampling with theencoder asproposal.
  • 22. 実験1 ? 実験結果 – テスト集合に対する(恐らく負の)変分下界と負の対数尤度での評価 – 小さい方が良いモデル. – TD-VAEが最も良い結果 – 平均場モデルが低い結果になっている ? 平均場モデルでは??が信念状態のコードになっているが,フィルタリングモデルではそうなっていないことに注意(フィルタリングモデルでは, エンコーダで前のステップの?に依存しているので) 信念状態を得るために単純にエンコーダを制限するだけでは精度が下がる 22 Under review asaconference paper at ICLR 2019 ELBO ? logp(x) (est.) Filtering model 0.1169± 0.0003 0.0962± 0.0007 Mean-?eld model 0.1987± 0.0004 0.1678± 0.0010 TD-VAE 0.0773 ± 0.0002 0.0553 ± 0.0006 Figure 2: MiniPacman. Left: A full frame from the game (size 15 ? 19). Pacman (green) is navigating themazetrying to eat all thefood (blue) whilebeing chased by aghost (red). Top right: A sequenceof observations, consisting of consecutive5?5 windowsaround Pacman. Bottom right: ELBO and estimated negativelog probability on atest set of MiniPacman sequences. Lower isbetter. Log probability isestimated using importance sampling with theencoder asproposal.
  • 23. 実験2 ? Moving MNIST – 各ステップで移動するMNIST – [1,4]の範囲でステップを飛び越えて学習し,生成できるかを実験 ? 実験結果: – ステップ数を飛ばしても生成できた. – (明示的に書いてないが恐らく)一番左が元画像で各列が飛ばしたステップ数[1,4]に対応している 23 Figure 2: MiniPacman. Left: A full frame from the game (size 15 ? 19). Pacman (green) is navigating themazetrying to eat all the food (blue) whilebeing chased by aghost (red). Top right: A sequence of observations, consisting of consecutive5?5 windowsaround Pacman. Bottom right: ELBO and estimated negativelog probability on atest set of MiniPacman sequences. Lower isbetter. Log probability isestimated using importance sampling with theencoder asproposal. Figure 3: Moving MNIST. Left: Rowsare example input sequences. Right: Jumpy rollouts from themodel. Weseethat themodel isable to roll forward by skipping frames, keeping thecorrect digit and thedirection of motion. 5.2 MOVING MNIST In thisexperiment, weshow that themodel isable to learn thestateand roll forward in jumps. We consider sequencesof length 20 of images of MNIST digits. For each sequence, arandom digit from thedataset ischosen, aswell asthedirection of movement (left or right). At each timestep, thedigit movesby one pixel in the chosen direction, asshown in Figure 3. Wetrain the model with t1 and t2 separated by arandom amount t2 ? t1 from theinterval [1, 4]. Wewould liketo seewhether the model at agiven timecan roll out asimulated experience in timesteps t1 = t + δ1, t2 = t1 + δ2, . . . with δ1, δ2, . . . > 1, without considering theinputsin between thesetimepoints. Notethat it isnot suf?cient to predict thefuture inputs xt 1 , . . . asthey do not contain information about whether the digit movesleft or right. Weneed to sample astate that contains this information. Weroll out asequence from themodel asfollows: (a) bt iscomputed by the aggregation recurrent network from observations up to time t; (b) a state zt is sampled from pB (zt | bt ); (c) a sequence 0 0 ELBO ? logp(x) (est.) Filtering model 0.1169± 0.0003 0.0962± 0.0007 Mean-?eld model 0.1987± 0.0004 0.1678± 0.0010 TD-VAE 0.0773 ± 0.0002 0.0553 ± 0.0006 re 2: MiniPacman. Left: A full frame from the game (size 15 ? 19). Pacman (green) is gating themazetrying to eat all the food (blue) whilebeing chased by aghost (red). Top right: quence of observations, consisting of consecutive5?5 windowsaround Pacman. Bottom right: O and estimated negativelog probability on atest set of MiniPacman sequences. Lower isbetter. probability isestimated using importance sampling with theencoder asproposal. re 3: Moving MNIST. Left: Rowsare example input sequences. Right: Jumpy rollouts from model. Wesee that themodel isable to roll forward by skipping frames, keeping thecorrect digit the direction of motion.
  • 24. 実験3 ? ノイズの多い高調波発振器から得られた1次元シーケンス – 各観測で情報がほとんどなくても(ノイズが入っていても)モデルが状態を構築できることを示す. – RNNにはLSTMを用いて,階層TD-VAEを使って学習. ? bが階層化している(説明は省略) – ステップ幅は確率0.8で[1,10]の間,確率0.2で[1,120]の間として学習 ? 実験結果: – 20ステップ及び100ステップ飛ばした結果 – ノイズが多い観測データでも生成できている. 24 Under review asaconference paper at ICLR 2019 Figure4: Skip-state prediction for 1D signal. Theinput isgenerated by anoisy harmonic oscillator. Rollouts consist of (a) ajumpy state transition with either dt = 20 or dt = 100, followed by 20 state transitions with dt = 1. The model is able to create a state and predict it into the future, correctly predicting frequency and magnitude of thesignal. predict asmuch aspossible about thestate, which consists of frequency, magnitude and position, and it isonly theposition that cannot beaccurately predicted.
  • 25. 実験4 ? DeepMInd Lab環境 – アーキテクチャはConvDRAWを参考したものに変更(恐らくGQNと同じ使い方) ? 実験結果: – モデルの信念の確認(ある信念からランダムに?を生成) – 左の画像:それぞれの?サンプルから画像を生成 -> 同じフレームが生成できている – 右の画像:それぞれの?サンプルから任意にステップを飛んで生成 ? 各信念内では同じような画像が生成されているが,信念によって出てくるフレームが異なる ->各信念で取りうる未来が異なっている 25
  • 26. 実験4 ? 実験結果: – ステップを飛び越えて行動を進めることができる. – 図をどう見ればいいかは正直不明(rolloutと書いているので,多分MNISTと同じ感じ) 26
  • 28. まとめ ? 本研究では,時系列を扱う世界モデルとしてTD-VAEを提案した. – 特に,時間方向の抽象化を意識している. – arXiv版ではあまり強調されていなかった気がする. ? 感想: – 世界モデルにおいて「時間を抽象化」できるようになった初めての研究(ICLR的には結構受けそう) – 個人的にはGQNよりも好き. – 細かい記述がなかったりするので,とりあえずPixyzとかで実装して動作確認してみたい(公式の実装は公開され ていない). 28