狠狠撸

狠狠撸Share a Scribd company logo
1 /40
?由エネルギー原理勉強会
1章 & 2章前半
2022/3/7 紺野?地 (東京?学 池?研究室)
2 /40
勉強会について
? ?的:?由エネルギー原理について、数学的な部分も含めて理解する
? 教科書:『?由エネルギー原理??: 知覚??動?コミュニケーションの計算理論』
? 形式:1回1.5-2時間、毎週?曜?19時開始、基本的に1回1章
? 発表者やその他情報は以下のnotionページを参照
https://daichikonno.notion.site/daichikonno/abe96c17997745d9aad947bc2ecd9411
ー ロ
■
ー
ノ
ン
ニ
ざ
ヽ
、
イヽ
●ロロロ■D
原理入門
乾 敏郎
阪口 豊
F
い
?
?
鮮
一?
一
、
y
劉 ?
,“′
4
,/`鰺
?ガ
1/'
ノ
艤 ::
.
一
?
■
、
ヽ
べ?
?
﹂
一
一
?
鮭
一
一
ァ
口
=
=
□
■■
■
■
Lne
い
?
0
♂
L
n
■
■
■
■
■
■
r
?
︱
︱
I
L
ComputationaI Theory of Perception,
Behavior, and Communication
岩 波 書 店
轟
知 覚? 行 動? コ ミュニケ ー シ ョンの計算理 論
`こ
ヽ
3 /40
?由エネルギー原理(Free energy principle, FEP)とは
? “Any self-organizing system that is at equilibrium with its
environment must minimize its free energy.”
? “脳は?由エネルギーを最?化するように設計されている”
(『?由エネルギー原理??』より引?)
? “?物の知覚や学習、?動は?由エネルギーと呼ばれるコスト関数を
最?化するように決まり、その結果?物は外界に適応できる”
(神経回路は潜在的な統計学者 | 理化学研究所)
? “Several global brain theories might be unified within a free-energy
framework.”
[Friston, 2010]
“脳の統?理論”としての期待
4 /40
Karl Fristonとは
? 1959年 イギリス?まれ
? 初期は統合失調症の研究に従事
? その後、脳イメージング研究を開始
? 1994年 統計的パラメトリックマッピング
(Statistical parametric mapping, SPM)開発
? 2006年 ?由エネルギー原理の提唱
https://www.fil.ion.ucl.ac.uk/spm/
5 /40
?由エネルギー原理のイメージをつかむ
磯村拓也先?(理化学研究所)のスライドを使わせていただきます(了承済)
6 /40
!", … , !%
&", … , &%
'
7/20
Perceptual inference
隠れ状態 !?
『わかりやすい?由エネルギー原理』(磯村拓哉先?)より引?
7 /40
!", … , !%
&", … , &%
'
Perceptual inference
(", … , (%
st
F
7/20
知覚:感覚入力から生成モデルに基づいて外界の隠れ状態を推論する。
この時、自由エネルギーを最小化させる知覚が選択される。
隠れ状態 !? 神経活動 !
『わかりやすい?由エネルギー原理』(磯村拓哉先?)より引?
8 /40
!", … , !%
π
&", … , &%, … , &'
(
Active inference )", … , )%
*
8/20
神経活動 !
隠れ状態 !?
『わかりやすい?由エネルギー原理』(磯村拓哉先?)より引?
9 /40
!", … , !%
π
&", … , &%, … , &'
(
π
G
Active inference )", … , )%
*
8/20
隠れ状態 !? 神経活動 !
『わかりやすい?由エネルギー原理』(磯村拓哉先?)より引?
10 /40
!", … , !%
π
&", … , &%, … , &'
(
π
G
Active inference
Action
)", … , )%
*
8/20
行動:行動により、自分が望む感覚入力が得られるように外界に介入することができる。
これを能動的推論と呼ぶ。この時、自由エネルギーを最小化させる行動が選択される。
隠れ状態 !? 神経活動 !
『わかりやすい?由エネルギー原理』(磯村拓哉先?)より引?
11 /40
!", … , !%
π
&", … , &%, … , &'
(
π
G
Active inference
Action
)", … , )%
*
8/20
学習:知覚?行動と並行して、生成モデルそのものもアップデートされる。
このアップデートも、自由エネルギーを最小化させるように決定される。
隠れ状態 !? 神経活動 !
『わかりやすい?由エネルギー原理』(磯村拓哉先?)より引?
12 /40
ここまでのまとめ
1. 知覚:感覚??から?成モデルに基づいて外界を推論し、知覚が得られる。
1.この時、?由エネルギーを最?化させる知覚が選択される。
2. ?動:?動により、?分が望む感覚??が得られるように外界に介?することができる。
2.これを能動的推論と呼ぶ。この時、?由エネルギーを最?化させる?動が選択される。
3. 学習:知覚?学習と並?して、?成モデルそのものもアップデートされる。
3.このアップデートも、?由エネルギーを最?化させるように決定される。
このように、知覚??動?学習は全て?由エネルギーを最?化させるように実現される。
この過程を経て、世界は?物にとって「より予測可能な場所」になる。
13 /40
?由エネルギー原理のイメージがつかめたところで、
いよいよ教科書の内容に?っていきます!
14 /40
本の構成
15 /40
本の構成
今回扱う部分
16 /40
?次(1章)
1.1 神経回路の数理理論の発展
1.2 環境の状態の推論機能からHelmholtzマシンまで
1.3 神経細胞の基本特性と学習アルゴリズム
1.4 脳の多層構造と双?向性結合の機能
1.5 ?由エネルギー原理
17 /40
?次(1章)
1.1 神経回路の数理理論の発展
1.2 環境の状態の推論機能からHelmholtzマシンまで → 割愛
1.3 神経細胞の基本特性と学習アルゴリズム
1.4 脳の多層構造と双?向性結合の機能 → 割愛
1.5 ?由エネルギー原理
18 /40
?次(1章)
1.1 神経回路の数理理論の発展
1.2 環境の状態の推論機能からHelmholtzマシンまで → 割愛
1.3 神経細胞の基本特性と学習アルゴリズム
1.4 脳の多層構造と双?向性結合の機能 → 割愛
1.5 ?由エネルギー原理
19 /40
計算論的神経科学のごく簡単な歴史
1943年 McCullochとPittsが神経細胞のモデル(神経素?モデル)を提唱
? 神経細胞の?出?を初めてモデル化
1949年 Hebbがシナプスの学習則(Hebb則)を提唱
? シナプス前細胞と後細胞が同時に発?すると、両者間のシナプス結合強度が上昇する
1958年 Rosenblattがパーセプトロンを提唱
? McCulloch-Pittsの神経素?モデルを?いた、ネットワークとしての脳のモデル
1986年 Rummelhartが誤差逆伝播法(Backpropagation)を提唱
? 多層パーセプトロンの学習が可能に
2006年 Hintonがオートエンコーダを提唱
? 現在の深層学習につながる
McCulloch-Pittsモデル
パーセプトロン
20 /40
シナプス可塑性の?物学的メカニズム
? 神経伝達物質:イオンチャネルを直接開閉
? グルタミン酸、GABA、…
? 神経修飾物質:イオンチャネルの開閉を修飾
? ドーパミン、セロトニン、アセチルコリン、…
? NMDA受容体による?期増強(LTP)
カンデル神経科学 p.1471
21 /40
?次(1章)
1.1 神経回路の数理理論の発展
1.2 環境の状態の推論機能からHelmholtzマシンまで → 割愛
1.3 神経細胞の基本特性と学習アルゴリズム
1.4 脳の多層構造と双?向性結合の機能 → 割愛
1.5 ?由エネルギー原理
22 /40
Hermann von Helmholtzについて
? Helmholtzの無意識的推論
“?間の視覚は不完全であるため、無意識的に推論を?い、
不?した情報を補っているはずである”
ex. 網膜に投影された2次元データから、3次元の世界を推論
? 熱?学、神経科学、流体?学、…
? 熱?学におけるヘルムホルツの?由エネルギー
! = # ? %&
!:?由エネルギー、":内部エネルギー、#:温度、$:エントロピー
Hermann von Helmholtz (1821-1894)
『脳の?統?理論』より引?
23 /40
?由エネルギー原理
? Fristonは、無意識的推論が?由エネルギー最?化により実現できる
と提唱した(初期の?由エネルギー原理)
? 2009年に能動的推論という概念が提唱され、?由エネルギー原理は
知覚だけでなく?動にも拡張された
? さらに学習なども含めて、様々な脳のメカニズムを?由エネルギー
最?化という同?の枠組みで説明できるとFristonは主張しており、
「脳の統?理論」として期待されている
24 /40
ここまでのまとめ(再掲)
1. 知覚:感覚??から?成モデルに基づいて外界を推論し、知覚が得られる。
1.この時、?由エネルギーを最?化させる知覚が選択される。
2. ?動:?動により、?分が望む感覚??が得られるように外界に介?することができる。
2.これを能動的推論と呼ぶ。この時、?由エネルギーを最?化させる?動が選択される。
3. 学習:知覚?学習と並?して、?成モデルそのものもアップデートされる。
3.このアップデートも、?由エネルギーを最?化させるように決定される。
このように、知覚??動?学習は全て?由エネルギーを最?化させるように実現される。
この過程を経て、世界は?物にとって「より予測可能な場所」になる。
25 /40
本の構成
今回扱う部分
26 /40
?次(2章前半)
2.1 諸?無常の環境を記述する
2.2 推論に必要な環境の?成モデル
2.3 ?成モデルの表現
2.4 推論過程をモデル化する
2.5 変分ベイズ推定とHelmholtzの?由エネルギー
27 /40
?次(2章前半)
2.1 諸?無常の環境を記述する
2.2 推論に必要な環境の?成モデル
2.3 ?成モデルの表現
2.4 推論過程をモデル化する
2.5 変分ベイズ推定とHelmholtzの?由エネルギー
28 /40
?般化座標の導?
? ?般化座標 '
( ) を右のように定義する。
? ?由エネルギー原理では、?般化座標で表現された状態変数が神経細胞の活動と
して符号化されていると考える。
ex. 視覚?質では、光の強度( !(#) )、その時間変化( !!
(#) ) 、…が神経活動として符号化されて
いることが知られている。
:隠れ状態
:時間
'
( ) =
(())
(%())
(%%())
???
!
"
29 /40
隠れ状態、隠れ原因、?成モデルの定義
神経回路は潜在的な統計学者 | 理化学研究所
隠れ原因
隠れ状態 :直接アクセスできない外界の状態
隠れ原因 :隠れ状態に変化を引き起こす要因
?成モデル:隠れ状態と感覚??の関係性を記述した
脳内のモデル
30 /40
隠れ状態、隠れ原因、?成モデルの定義
神経回路は潜在的な統計学者 | 理化学研究所
感覚??
&
?動
'
神経活動
外界の隠れ状態
!
外界 脳内
?成モデル
((!, &)
隠れ原因
*
隠れ原因
31 /40
観測?程式と状態?程式の定義
? ?由エネルギー原理では、以下の2つの式で?成モデルを表す
? 観測?程式:隠れ状態xから感覚信号yが?成される過程を記述した式
, ) = - ( ) , / ) + 1! )
? 状態?程式:隠れ状態xの時間変化を記述した式
:感覚信号
:?線形関数
:隠れ状態
:隠れ原因
:観測ノイズ
:微分演算?
:?線形関数
:システムノイズ
!(#)
%
&(#)
'(#)
(" #
)
*
(# #
2( ) =
(%())
(%′())
(%%′()) = 4 ( ) , / ) + 1" )
???
32 /40
?次(2章前半)
2.1 諸?無常の環境を記述する
2.2 推論に必要な環境の?成モデル
2.3 ?成モデルの表現
2.4 推論過程をモデル化する
2.5 変分ベイズ推定とHelmholtzの?由エネルギー
33 /40
?由エネルギー原理とベイズの定理
? ?由エネルギー原理では脳の?的を、
「真の事後分布 ! " # を知ること」
(感覚?? # のもとで、隠れ状態 " を推論すること)と考える。
? 真の事後分布 ! " # は、ベイズの定理を?いて求めることができる。
+ !, & = + ! & + & = + & ! + !
+ & ! =
+(!, &)
+(!)
=
+ ! &
+ !
+ &
感覚??
!
?動
"
神経活動
外界の隠れ状態
#
外界 脳内
?成モデル
$(!, #)
#(!, ") :隠れ状態xと感覚??yの同時分布
(?成モデル)
#(") :隠れ状態xについての確率分布
(世界についての事前知識)
#(!) :感覚??yについての確率分布
(周辺尤度)
# " ! :真の事後分布(求めたいもの)
# ! " :隠れ状態xのもとで感覚??yが
?じる確率(尤度)
? ここで、( & の計算にはありうる全ての隠れ状態 "( について総和を取る
必要がある。
+ ! = + ! &1 + &1 + + ! &2 + &2 + ? + + ! && + &&
? しかしながらこれは現実的に困難だし、脳はそのような計算をしていない
とFristonは(おそらく)考えている。
34 /40
変分ベイズ推定とKLダイバージェンス
? そこで新たな分布 0(&) を導?し、これが真の事後分布 + & ! をなるべく近似するように
なれば良い。
→ 変分ベイズ推定
? 2つの分布の類似度を測る指標
→ Kullback-Leibler divergence( )'( )
)'((0(&)||+ & ) = 2
%&
&
0 & 34%
0(&)
+(&)
5&
KLダイバージェンスのイメージ
『?由エネルギー原理?? 改め
?由エネルギー原理の基礎徹底解説』より引?
? )'( = 0は、2つの分布 +(&) と 0(&) の?致を意味する。
? 今回求めたいのは )'((0(&)||+(&|!)) だが、直接は計算できない。
(そもそも知りたいのが事後分布 +(&|!))
35 /40
(変分)?由エネルギー
ベイズの定理
(変分)?由エネルギー サプライズ
KLダイバージェンス
(変分)?由エネルギー = KLダイバージェンス + サプライズ
#(%) は確率密度関数なので
積分すると1
!'((#($)||' $ () = * # $ log
# $
' $ (
.$
= * # $ log
# $ ' (
' (, $
.$
= * # $ log
# $
' (, $
+ log ' ( .$
= * # $ log
# $
' (, $
.$ + log ' ( * # $ .$
= * # $ log
# $
' (, $
.$ ? (? log '(())
36 /40
次回は、?由エネルギーの値や最?化の
具体的な計算?法について扱います!
37 /40
?由エネルギー原理を学ぶ上で参考にした?本語資料
磯村拓哉先?
? 『わかりやすい?由エネルギー原理』(スライド)
? 『?由エネルギー原理の解説:知覚??動?他者の思考の推論』(論?)
吉?正俊先?
? 『?由エネルギー原理?? 改め?由エネルギー原理の基礎徹底解説』(スライド)
? 『シンギュラリティサロン講演記録 「?由エネルギー原理と視覚的意識」』(YouTube)
乾敏郎先?
? 『脳の?統?理論 ?由エネルギー原理とはなにか』(書籍)
? 『?由エネルギー原理―環境との相即不離の主観理論―』(論?)
38 /40
おまけ
39 /40
よくある疑問?質問
? 変分?由エネルギーは、もともと変分ベイズで定義されている値である
(?由エネルギー原理のために?み出された値ではない)
? 式変形により、変分?由エネルギーとヘルムホルツの?由エネルギーは「似た形」
になる
→ 熱?学や統計?学との関係性の?唆(次スライド)
? 脳は?由エネルギーを下げるように設計されているという「解釈ができる」
40 /40
(変分)?由エネルギーとHelmholtzの?由エネルギー
? 内部エネルギー 7 &; ! を以下のように定義する
7 &; ! = ?log + &, ! = ? log + ! & ? log +(&)
? このとき、?由エネルギーFは以下のように記述される
= 0, +; ! = ∫ 0 & log
' (
) *,(
5&
= 2 0 & 7 &; ! 5& ? ? 2 0 & log 0 & 5&
? これは、Helmholtzの?由エネルギー = = 7 ? ?@ と「似た表現」と考えることができる
認識分布に基づく
内部エネルギーの事後期待値
エントロピー
→ 熱?学や統計?学との関係性の?唆

More Related Content

What's hot (20)

勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
?
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Preferred Networks
?
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~
Takuya Ono
?
グラフニューラルネットワーク入门
グラフニューラルネットワーク入门グラフニューラルネットワーク入门
グラフニューラルネットワーク入门
ryosuke-kojima
?
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Hideki Tsunashima
?
最适化超入门
最适化超入门最适化超入门
最适化超入门
Takami Sato
?
12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf
幸太朗 岩澤
?
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
?
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
Deep Learning JP
?
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
cvpaper. challenge
?
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
?
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
Deep Learning JP
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
?
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
Preferred Networks
?
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
摆顿尝轮読会闭近年のエネルギーベースモデルの进展摆顿尝轮読会闭近年のエネルギーベースモデルの进展
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
Deep Learning JP
?
グラフィカルモデル入门
グラフィカルモデル入门グラフィカルモデル入门
グラフィカルモデル入门
Kawamoto_Kazuhiko
?
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
Deep Learning JP
?
机械学习モデルの判断根拠の説明(痴别谤.2)
机械学习モデルの判断根拠の説明(痴别谤.2)机械学习モデルの判断根拠の説明(痴别谤.2)
机械学习モデルの判断根拠の説明(痴别谤.2)
Satoshi Hara
?
颁痴分野におけるサーベイ方法
颁痴分野におけるサーベイ方法颁痴分野におけるサーベイ方法
颁痴分野におけるサーベイ方法
Hirokatsu Kataoka
?
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
?
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Preferred Networks
?
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~
Takuya Ono
?
グラフニューラルネットワーク入门
グラフニューラルネットワーク入门グラフニューラルネットワーク入门
グラフニューラルネットワーク入门
ryosuke-kojima
?
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Hideki Tsunashima
?
12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf
幸太朗 岩澤
?
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
?
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
Deep Learning JP
?
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
cvpaper. challenge
?
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
?
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
Deep Learning JP
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
?
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
Preferred Networks
?
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
摆顿尝轮読会闭近年のエネルギーベースモデルの进展摆顿尝轮読会闭近年のエネルギーベースモデルの进展
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
Deep Learning JP
?
グラフィカルモデル入门
グラフィカルモデル入门グラフィカルモデル入门
グラフィカルモデル入门
Kawamoto_Kazuhiko
?
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
Deep Learning JP
?
机械学习モデルの判断根拠の説明(痴别谤.2)
机械学习モデルの判断根拠の説明(痴别谤.2)机械学习モデルの判断根拠の説明(痴别谤.2)
机械学习モデルの判断根拠の説明(痴别谤.2)
Satoshi Hara
?
颁痴分野におけるサーベイ方法
颁痴分野におけるサーベイ方法颁痴分野におけるサーベイ方法
颁痴分野におけるサーベイ方法
Hirokatsu Kataoka
?

『自由エネルギー原理入门』勉强会1章&2章前半