狠狠撸

狠狠撸Share a Scribd company logo
NTICではなにを計算しているか
NTICはあくまでも3者の間のMIについての関係式。
MIの対称性より、MI(X;Y)のX,Yは交換可能。
NTICはMIだけで計算できるから
NTICの計算式そのものには向きはない。
NTIC(Z → X, Y) = MI(X; Y) ? MI(X; Y|Z)
NTICではこの計算式を、
systemとenvironmentの時間的発展に当てはめることで、
時間方向の因果について意味付けしている。
X Y
Z
結論:
MI(X; Y)
H(Y|X)
H(X|Y)
H(X)
H(Y)
X,Yの2者のMI(X:Y)は
エントロピーから計算できる。
MI(X; Y) = H(X) ? H(X|Y)
= H(Y) ? H(Y|X)
相互情報量MIとエントロピーHの関係
H(X) H(Y)
H(Z)
MI(X; Y|Z)
NTIC
(Z → X, Y)
= MI(X; Y) ? MI(X; Y|Z)
NTIC(Z → X, Y)
同じ要領でX,Y,Zの3者の
条件付き相互情報量 MI(X;Y|Z)
およびNTICを表示する。
NTICはX,Y,Zについて
対称になってる。
つまり(時系列を取っ払えば)
https://en.wikipedia.org/wiki/
Multivariate_mutual_information#/media/
File:VennInfo3Var.svg
NTIC = MI(X;Y;Z)
MI(X;Y;Z)という形を見ると、
相関での高次の相関に似ているように見える。
そこで、p(X),p(Y),p(Z)がgaussianで近似できる場合の
MI(X;Y;Z)の動態を調べてみた。
高次の相互情報量
NTIC = MI(X; Y; Z)
よって、
NTICそれじたいは
3者の間で一つ決まる値であって、
なんらかの方向の影響
を意味しているわけではない。
p(X),p(Y),p(Z)がgaussianの場合
よってNTIC = MI(X,Y,Z) も相関と偏相関で書ける。
MI(X; Y; Z) = MI(X; Y) ? MI(X; Y|Z)
Zhao J, Zhou Y, Zhang X, Chen L. (2016) Proc Natl Acad Sci U S A. 113(18):5130-5.
のSupplementary informationに証明あり:
https://www.pnas.org/content/pnas/suppl/2016/04/16/1522586113.DCSupplemental/pnas.1522586113.sapp.pdf
= ?
1
2
log(1 ? ρ2
XY) +
1
2
log(1 ? ρ2
XY?Z)
= ?
1
2
log(
1 ? ρ2
XY
1 ? ρ2
XY?Z
)
p(X),p(Y),p(Z)がgaussianの場合、
相関係数
MIおよび条件付きMIは、相関および偏相関で書ける。
MI(X; Y) = ?
1
2
log(1 ? ρ2
XY)
偏相関係数MI(X; Y|Z) = ?
1
2
log(1 ? ρ2
XY?Z) ρXY?Z
ρXY
Information closureをベン図で理解
S1 S2
E1
時系列データに戻ってinformation closureの分類に当てはめてみる。
Information Closure
J(E → S) = MI(E1; S2 |S1) = 0
H(E1) H(S2)
H(S1)
MI(E1; S2 |S1)
NTIC
(E → S)
MI(E1; S2) = 0Trivial case:
MI(E1; S2) > 0Nontrivial case:
このとき2つのケースがある。
Independence
Passive adaptation
or modeling
Trivial case: Nontrivial case:
Information closureをベン図で理解
Information Closure
J(E → S) = MI(E1; S2 |S1) = 0
H(E1)
H(S2)
H(S1)
MI(E1; S2) = 0 MI(E1; S2) > 0
=> Independence => Passive adaptation or
modeling
H(E1) H(S2)と に重なりがない。
H(E1)
H(S2)
H(S1)
NTIC
(E → S)
H(E1) H(S2)と に重なりがあるが、
そこは に包含されている。H(S1)E1とS1は重なりうる。
イメージをふくらませるため先述の線形の条件で考えてみる。
線形条件(相関で置き換え可能)でのNTIC
p(E_1),p(S_1),p(S_2)がgaussianの場合、
MIおよび条件付きMIは相関および偏相関係数の関数で書ける。
かつ
Trivial case:
Nontrivial case: ρE1S2
≠ 0
そうすると
ρE1S2
= 0
ρ2
E1S2
= ρ2
E1S2?S1
となる。
NTIC = MI(E1; S1; S2) = MI(E1; S2) ? MI(E1; S2 |S1) より、
MI(E1; S2) = MI(E1; S1; S2)
つまり
MI(E1; S2) = ?
1
2
log(1 ? ρ2
E1S2
)
MI(E1; S2 |S1) = ?
1
2
log(1 ? ρ2
E1S2?S1
)
つまり相関がゼロでないのに
相関と偏相関が等しいときにnontrivialなinformation closureが起こる。
このことから3つの相関係数が満たすべき条件がわかる。
ρ2
E1S2
= ρ2
E1S2?S1
かつρE1S2
≠ 0 とは
ρE1S2?S1
=
ρE1S2
? ρS1S2
ρE1S1
1 ? ρS1S2
1 ? ρE1S1
1 ? ρS1S2
1 ? ρE1S1
=
ρE1S2
? ρS1S2
ρE1S1
ρE1S2
(1 ? ρS1S2
)(1 ? ρE1S1
) = 1 ?
ρS1S2
ρE1S1
ρE1S2
より、
ρE1S2
=
ρS1S2
ρE1S1
1 ? (1 ? ρS1S2
)(1 ? ρE1S1
)
Nontrivial case:
線形条件(相関で置き換え可能)でのNTIC
Nontrivial information closureしているときに が満たすべき条件ρE1S2
ρE1S2
=
ρS1S2
ρE1S1
1 ? (1 ? ρS1S2
)(1 ? ρE1S1
)
一般的にシステムには
自己相関があるから
このとき必ず
ρS1S2
> 0
ρE1S2
> 0
ρE1S1
ρS1S2
?1 1
?1
1
ρE1S2
ρE1S2 をカラー表示
けっきょく第1象限が
いちばんありうる。
線形システムでInformation
closureを保つためには、こういう
相関構造を維持する必要がある。
線形条件(相関で置き換え可能)でのNTIC
生成モデルでの表現
NTIC(E1 → S1, S2) = MI(E1; S2) ? MI(E1; S2 |S1)
S1 S2
E1
MI(E1; S2) = DKL(P(E1, S2)∥P(E1)P(S2))
MI(E1; S2 |S1) = DKL(P(S1, S2, E1)∥P(E1 |S1)P(S2 |S1)P(S1))
相互情報量はKLDとして表現することができる。
よって、NTICは2つのKLDの差になってる。
MIを2つの生成モデルのKLDとして図示することができる。
P(S2 |E1)P(E1)
MI(E1; S2) = DKL(P(E1, S2)∥P(E1)P(S2))相互情報量
P(S2)P(E1)
二つの
生成モデル
のKL距離
S2 S2
E1E1
P(S2, E1) =
今度は逆に、生成モデルを使って積極的に向きをつけてみる。
P(S2, E1) =
P(S2 |E1)P(E1)
MI(E1; S2) = DKL(P(E1, S2)∥P(E1)P(S2))
生成モデルでの表現
相互情報量
P(S2)P(E1)
二つの
生成モデル
のKL距離
条件付き
相互情報量
MI(E1; S2 |S1) = DKL(P(S1, S2, E1)∥P(E1 |S1)P(S2 |S1)P(S1))
P(S2 |S1, E1)P(S1 |E1)P(E1)
S1 S2 S1 S2
P(S2 |S1)P(S1 |E1)P(E1)
二つの
生成モデル
のKL距離 E1E1
S2 S2
E1E1
同様に条件付き総合情報量についても生成モデルが作れる。
生成モデルでの表現
このように図示してみると、nontrivialなケースとは、
P(S2 |E1)P(E1) P(S2)P(E1)
S2 S2
E1E1
P(S2 |S1, E1)P(S1 |E1)P(E1)
S1 S2 S1 S2
P(S2 |S1)P(S1 |E1)P(E1)
E1E1
NTIC(E1 → S1, S2) = MI(E1; S2) ? MI(E1; S2 |S1)
下図の距離はゼロなのに、上図の距離が正である場合になる
MI(E1; S2)
MI(E1; S2 |S1)

More Related Content

What's hot (20)

BlackBox モデルの説明性?解釈性技術の実装
BlackBox モデルの説明性?解釈性技術の実装BlackBox モデルの説明性?解釈性技術の実装
BlackBox モデルの説明性?解釈性技術の実装
Deep Learning Lab(ディープラーニング?ラボ)
?
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model
Deep Learning JP
?
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライドNLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
JunSuzuki21
?
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
Kazuhide Okamura
?
强化学习その3
强化学习その3强化学习その3
强化学习その3
nishio
?
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
?
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
?
Variational AutoEncoder
Variational AutoEncoderVariational AutoEncoder
Variational AutoEncoder
Kazuki Nitta
?
カーネル法:正定値カーネルの理论
カーネル法:正定値カーネルの理论カーネル法:正定値カーネルの理论
カーネル法:正定値カーネルの理论
Daiki Tanaka
?
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
摆顿尝轮読会闭近年のエネルギーベースモデルの进展摆顿尝轮読会闭近年のエネルギーベースモデルの进展
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
Deep Learning JP
?
『自由エネルギー原理入门』勉强会1章&2章前半
『自由エネルギー原理入门』勉强会1章&2章前半『自由エネルギー原理入门』勉强会1章&2章前半
『自由エネルギー原理入门』勉强会1章&2章前半
大地 紺野
?
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
?
碍补驳驳濒别のテクニック
碍补驳驳濒别のテクニック碍补驳驳濒别のテクニック
碍补驳驳濒别のテクニック
Yasunori Ozaki
?
Pythonではじめる OpenAI Gymトレーニング
Pythonではじめる OpenAI GymトレーニングPythonではじめる OpenAI Gymトレーニング
Pythonではじめる OpenAI Gymトレーニング
Takahiro Kubo
?
组合せ最适化入门:线形计画から整数计画まで
组合せ最适化入门:线形计画から整数计画まで组合せ最适化入门:线形计画から整数计画まで
组合せ最适化入门:线形计画から整数计画まで
Shunji Umetani
?
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
?
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
Takuya Minagawa
?
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
Deep Learning JP
?
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
Deep Learning JP
?
[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video Recognition[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video Recognition
Deep Learning JP
?
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model
Deep Learning JP
?
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライドNLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
JunSuzuki21
?
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
Kazuhide Okamura
?
强化学习その3
强化学习その3强化学习その3
强化学习その3
nishio
?
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
?
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
?
Variational AutoEncoder
Variational AutoEncoderVariational AutoEncoder
Variational AutoEncoder
Kazuki Nitta
?
カーネル法:正定値カーネルの理论
カーネル法:正定値カーネルの理论カーネル法:正定値カーネルの理论
カーネル法:正定値カーネルの理论
Daiki Tanaka
?
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
摆顿尝轮読会闭近年のエネルギーベースモデルの进展摆顿尝轮読会闭近年のエネルギーベースモデルの进展
摆顿尝轮読会闭近年のエネルギーベースモデルの进展
Deep Learning JP
?
『自由エネルギー原理入门』勉强会1章&2章前半
『自由エネルギー原理入门』勉强会1章&2章前半『自由エネルギー原理入门』勉强会1章&2章前半
『自由エネルギー原理入门』勉强会1章&2章前半
大地 紺野
?
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
?
碍补驳驳濒别のテクニック
碍补驳驳濒别のテクニック碍补驳驳濒别のテクニック
碍补驳驳濒别のテクニック
Yasunori Ozaki
?
Pythonではじめる OpenAI Gymトレーニング
Pythonではじめる OpenAI GymトレーニングPythonではじめる OpenAI Gymトレーニング
Pythonではじめる OpenAI Gymトレーニング
Takahiro Kubo
?
组合せ最适化入门:线形计画から整数计画まで
组合せ最适化入门:线形计画から整数计画まで组合せ最适化入门:线形计画から整数计画まで
组合せ最适化入门:线形计画から整数计画まで
Shunji Umetani
?
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
?
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
Takuya Minagawa
?
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
Deep Learning JP
?
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
Deep Learning JP
?
[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video Recognition[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video Recognition
Deep Learning JP
?

More from Masatoshi Yoshida (20)

自由エネルギー原理と視覚的意識 2019-06-08
自由エネルギー原理と視覚的意識 2019-06-08自由エネルギー原理と視覚的意識 2019-06-08
自由エネルギー原理と視覚的意識 2019-06-08
Masatoshi Yoshida
?
駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」
駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」
駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」
Masatoshi Yoshida
?
自由エネルキ?ー原理入門: 正規分布を仮定した場合
自由エネルキ?ー原理入門: 正規分布を仮定した場合自由エネルキ?ー原理入門: 正規分布を仮定した場合
自由エネルキ?ー原理入門: 正規分布を仮定した場合
Masatoshi Yoshida
?
FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
Masatoshi Yoshida
?
シンキ?ュラリティサロン20211030别辫
シンキ?ュラリティサロン20211030别辫シンキ?ュラリティサロン20211030别辫
シンキ?ュラリティサロン20211030别辫
Masatoshi Yoshida
?
R演習補講 (2腕バンディット問題を題材に)
R演習補講 (2腕バンディット問題を題材に)R演習補講 (2腕バンディット問題を題材に)
R演習補講 (2腕バンディット問題を題材に)
Masatoshi Yoshida
?
自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ
Masatoshi Yoshida
?
颁贬础滨狈公开セミナー20200817吉田発表资料
颁贬础滨狈公开セミナー20200817吉田発表资料颁贬础滨狈公开セミナー20200817吉田発表资料
颁贬础滨狈公开セミナー20200817吉田発表资料
Masatoshi Yoshida
?
熱力学の初歩まとめ 20200224 吉田正俊
熱力学の初歩まとめ 20200224 吉田正俊熱力学の初歩まとめ 20200224 吉田正俊
熱力学の初歩まとめ 20200224 吉田正俊
Masatoshi Yoshida
?
自由エネルギー原理(FEP)とはなにか 20190211
自由エネルギー原理(FEP)とはなにか 20190211自由エネルギー原理(FEP)とはなにか 20190211
自由エネルギー原理(FEP)とはなにか 20190211
Masatoshi Yoshida
?
駒場学部講義2018 「意識の神経科学と自由エネルギー原理」講義スライド
駒場学部講義2018 「意識の神経科学と自由エネルギー原理」講義スライド駒場学部講義2018 「意識の神経科学と自由エネルギー原理」講義スライド
駒場学部講義2018 「意識の神経科学と自由エネルギー原理」講義スライド
Masatoshi Yoshida
?
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
Masatoshi Yoshida
?
Bogacz 2017を元にFEPのニューラルネットの説明
Bogacz 2017を元にFEPのニューラルネットの説明Bogacz 2017を元にFEPのニューラルネットの説明
Bogacz 2017を元にFEPのニューラルネットの説明
Masatoshi Yoshida
?
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
?
駒場学部講義2017 「意識の神経科学:盲視?統合失調症?自由エネルギー原理」
駒場学部講義2017 「意識の神経科学:盲視?統合失調症?自由エネルギー原理」駒場学部講義2017 「意識の神経科学:盲視?統合失調症?自由エネルギー原理」
駒場学部講義2017 「意識の神経科学:盲視?統合失調症?自由エネルギー原理」
Masatoshi Yoshida
?
细胞外电极はなにを见ているか2017年5月版
细胞外电极はなにを见ているか2017年5月版细胞外电极はなにを见ているか2017年5月版
细胞外电极はなにを见ているか2017年5月版
Masatoshi Yoshida
?
「アクティブビジョンと フリストン自由エネルギー原理」@北大20170111
「アクティブビジョンと フリストン自由エネルギー原理」@北大20170111「アクティブビジョンと フリストン自由エネルギー原理」@北大20170111
「アクティブビジョンと フリストン自由エネルギー原理」@北大20170111
Masatoshi Yoshida
?
駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」
駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」
駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」
Masatoshi Yoshida
?
The hard problem of consciousness
The hard problem of consciousnessThe hard problem of consciousness
The hard problem of consciousness
Masatoshi Yoshida
?
駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気つ?き」と「サリエンシー」を手か?かりに」
駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気つ?き」と「サリエンシー」を手か?かりに」駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気つ?き」と「サリエンシー」を手か?かりに」
駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気つ?き」と「サリエンシー」を手か?かりに」
Masatoshi Yoshida
?
自由エネルギー原理と視覚的意識 2019-06-08
自由エネルギー原理と視覚的意識 2019-06-08自由エネルギー原理と視覚的意識 2019-06-08
自由エネルギー原理と視覚的意識 2019-06-08
Masatoshi Yoshida
?
駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」
駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」
駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」
Masatoshi Yoshida
?
自由エネルキ?ー原理入門: 正規分布を仮定した場合
自由エネルキ?ー原理入門: 正規分布を仮定した場合自由エネルキ?ー原理入門: 正規分布を仮定した場合
自由エネルキ?ー原理入門: 正規分布を仮定した場合
Masatoshi Yoshida
?
FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
Masatoshi Yoshida
?
シンキ?ュラリティサロン20211030别辫
シンキ?ュラリティサロン20211030别辫シンキ?ュラリティサロン20211030别辫
シンキ?ュラリティサロン20211030别辫
Masatoshi Yoshida
?
R演習補講 (2腕バンディット問題を題材に)
R演習補講 (2腕バンディット問題を題材に)R演習補講 (2腕バンディット問題を題材に)
R演習補講 (2腕バンディット問題を題材に)
Masatoshi Yoshida
?
自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ
Masatoshi Yoshida
?
颁贬础滨狈公开セミナー20200817吉田発表资料
颁贬础滨狈公开セミナー20200817吉田発表资料颁贬础滨狈公开セミナー20200817吉田発表资料
颁贬础滨狈公开セミナー20200817吉田発表资料
Masatoshi Yoshida
?
熱力学の初歩まとめ 20200224 吉田正俊
熱力学の初歩まとめ 20200224 吉田正俊熱力学の初歩まとめ 20200224 吉田正俊
熱力学の初歩まとめ 20200224 吉田正俊
Masatoshi Yoshida
?
自由エネルギー原理(FEP)とはなにか 20190211
自由エネルギー原理(FEP)とはなにか 20190211自由エネルギー原理(FEP)とはなにか 20190211
自由エネルギー原理(FEP)とはなにか 20190211
Masatoshi Yoshida
?
駒場学部講義2018 「意識の神経科学と自由エネルギー原理」講義スライド
駒場学部講義2018 「意識の神経科学と自由エネルギー原理」講義スライド駒場学部講義2018 「意識の神経科学と自由エネルギー原理」講義スライド
駒場学部講義2018 「意識の神経科学と自由エネルギー原理」講義スライド
Masatoshi Yoshida
?
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
Masatoshi Yoshida
?
Bogacz 2017を元にFEPのニューラルネットの説明
Bogacz 2017を元にFEPのニューラルネットの説明Bogacz 2017を元にFEPのニューラルネットの説明
Bogacz 2017を元にFEPのニューラルネットの説明
Masatoshi Yoshida
?
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
?
駒場学部講義2017 「意識の神経科学:盲視?統合失調症?自由エネルギー原理」
駒場学部講義2017 「意識の神経科学:盲視?統合失調症?自由エネルギー原理」駒場学部講義2017 「意識の神経科学:盲視?統合失調症?自由エネルギー原理」
駒場学部講義2017 「意識の神経科学:盲視?統合失調症?自由エネルギー原理」
Masatoshi Yoshida
?
细胞外电极はなにを见ているか2017年5月版
细胞外电极はなにを见ているか2017年5月版细胞外电极はなにを见ているか2017年5月版
细胞外电极はなにを见ているか2017年5月版
Masatoshi Yoshida
?
「アクティブビジョンと フリストン自由エネルギー原理」@北大20170111
「アクティブビジョンと フリストン自由エネルギー原理」@北大20170111「アクティブビジョンと フリストン自由エネルギー原理」@北大20170111
「アクティブビジョンと フリストン自由エネルギー原理」@北大20170111
Masatoshi Yoshida
?
駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」
駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」
駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」
Masatoshi Yoshida
?
The hard problem of consciousness
The hard problem of consciousnessThe hard problem of consciousness
The hard problem of consciousness
Masatoshi Yoshida
?
駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気つ?き」と「サリエンシー」を手か?かりに」
駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気つ?き」と「サリエンシー」を手か?かりに」駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気つ?き」と「サリエンシー」を手か?かりに」
駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気つ?き」と「サリエンシー」を手か?かりに」
Masatoshi Yoshida
?

狈罢滨颁は何を计算しているのか