狠狠撸
Submit Search
落合 Wba hackathon2_成果報告_最終版
Feb 22, 2017
Download as PPTX, PDF
1 like
522 views
K
koji ochiai
第2回全脳アーキテクチャ?ハッカソン「みんなで作る認知アーキテクチャ」最終発表 http://wba-initiative.org/1705/
Read less
Read more
1 of 56
Download now
Download to read offline
Recommended
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
Masatoshi Yoshida
?
京都大学人環セミナー(20171218)および東京大学大学院工学系研究科 國吉研オムニバス講義(20171226; 脳型情報処理機械論 http://www.isi.imi.i.u-tokyo.ac.jp/lectures/BIP/)で行ったトークで使ったスライドを(多少編集した上で)アップロードしました。タイトルは「感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and Free Energy Principle)」です。
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
?
よくわかるフリストンの自由エネルギー原理
General ai challenge round1 中間報告
General ai challenge round1 中間報告
koji ochiai
?
slide for https://general-ai-challenge.connpass.com/event/54912/
第3回nips読み会?関西『variational inference foundations and modern methods』
第3回nips読み会?関西『variational inference foundations and modern methods』
koji ochiai
?
第3回nips読み会での発表資料です。 オリジナル資料は以下のとおり。 まとめ https://nips.cc/Conferences/2016/Schedule?showEvent=6199 Video https://channel9.msdn.com/Events/Neural-Information-Processing-Systems-Conference/Neural-Information-Processing-Systems-Conference-NIPS-2016/Variational-Inference-Foundations-and-Modern-Methods 狠狠撸(PDF) https://media.nips.cc/Conferences/2016/狠狠撸s/6199-狠狠撸s.pdf
自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ
Masatoshi Yoshida
?
自由エネルギー原理からエナクティヴィズムへ 北海道大学 人間知?脳?AI研究教育センター 特任准教授 吉田 正俊 第31回 全脳アーキテクチャWBA勉強会 2020年10月23日(金) 18:00-21:00
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
摆顿尝轮読会闭骋蚕狈と関连研究,世界モデルとの関係について
Deep Learning JP
?
2018/08/17 Deep Learning JP: http://deeplearning.jp/seminar-2/
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
Hiroki Nakahara
?
厂肠颈17第61回システム制御情报学会研究発表讲演会で讲演したスライド资料です。开発中のツール绍介もあります。
20120405 setsunaセミナー
20120405 setsunaセミナー
Takahiro Iwase
?
S
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
GTC Japan 2015での発表資料 (Session ID:2015 - 1014)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
Hiroki Nakahara
?
TensorFlow User Group HW部(2017年2月27日)で使ったスライドです。講演後、一部加筆?修正しています。
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?
2014年8月26日の日本神経回路学会主催セミナー「Deep Learningが拓く世界」における発表スライドです。Deep Learningの主なフレームワークで共通する設計部分と、実験の仕方について説明しています。
Top-K Off-Policy Correction for a REINFORCE Recommender System
Top-K Off-Policy Correction for a REINFORCE Recommender System
harmonylab
?
Top-K Off-Policy Correction for a REINFORCE Recommender Systemの解説
第2回 NIPS+読み会?関西 発表資料 山本
第2回 NIPS+読み会?関西 発表資料 山本
驰补丑辞辞!デベロッパーネットワーク
?
Coevolutionary Latent Feature Processes for Continuous-Time User-Item Interaction
エキ Py 読書会02 2010/9/7
エキ Py 読書会02 2010/9/7
Tetsuya Morimoto
?
PRMU201902 Presentation document
PRMU201902 Presentation document
Masayuki Tanaka
?
深層学習に関する(個人的な)取り組みの紹介
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
NVIDIA Japan
?
このスライドは 2017 年 4 月 18 日(水)に東京ミッドタウンで開催された NVIDIA Deep Learning Institute Day #NVDLD のハンズオン セッション 3「リカレント ニューラル ネットワーク入門」にて村上真奈がプレゼンテーションを行ったスライドです。
Python Kyoto study
Python Kyoto study
Naoya Inada
?
エキ Py 読書会02 2章前半
エキ Py 読書会02 2章前半
Tetsuya Morimoto
?
2010/9/7 の読書会でお話した内容を 9/29 に少し に修正しました。
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
Deep Learning JP
?
2019/03/01 Deep Learning JP: http://deeplearning.jp/seminar-2/
分類問題 - 機械学習ライブラリ scikit-learn の活用
分類問題 - 機械学習ライブラリ scikit-learn の活用
y-uti
?
社内勉強会で『Python 機械学習プログラミング』の第 3 章の発表を担当した際の資料です。教科書で触れられている各アルゴリズムについて、アルゴリズムの概要と Iris データセットへの適用结果を説明しています。 発表資料に対応して、Jupyter Notebook で実行した ipynb ファイルを Gist にアップロードしています。 https://gist.github.com/y-uti/bd0928ad4f4eff7794a00108f6cbe7cc [2017-05-08] スライド 37 ページの内容はカーネル SVM の理解について大きな誤りがあったため取り消します。
各言語の k-means 比較
各言語の k-means 比較
y-uti
?
MATLAB, R, Python の k-means について、それぞれの入出力やオプションの違いを比較してみました。 第 10 回「続?わかりやすいパターン認識」読書会の LT で発表した資料です。
jjugccc2018 app review postmortem
jjugccc2018 app review postmortem
tamtam180
?
収益を支える中规模アプリケーション开発奋闘记
エキ Py 読書会02 2章後半
エキ Py 読書会02 2章後半
Tetsuya Morimoto
?
2010/10/5 の読書会でお話した内容です。
Deep learning入門
Deep learning入門
magoroku Yamamoto
?
deep learning,theano
顿厂贵2018讲演スライド
顿厂贵2018讲演スライド
Hiroki Nakahara
?
Design Solution Forum 2018の講演で使用したスライドです。
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
nkazuki
?
研究室輪講用資料です. 発表論文は「Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puzzles」で,ASE2012に採択されています.
础尘别产补におけるレコメンデーションシステムの绍介
础尘别产补におけるレコメンデーションシステムの绍介
cyberagent
?
2016年7月25日開催 「夏真っ盛り!Spark + Python + Data Science祭り」
たのしい関数型
たのしい関数型
Shinichi Kozake
?
第1回 関数型言語勉強会 大阪 の資料です。
More Related Content
Similar to 落合 Wba hackathon2_成果報告_最終版
(20)
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
GTC Japan 2015での発表資料 (Session ID:2015 - 1014)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
Hiroki Nakahara
?
TensorFlow User Group HW部(2017年2月27日)で使ったスライドです。講演後、一部加筆?修正しています。
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?
2014年8月26日の日本神経回路学会主催セミナー「Deep Learningが拓く世界」における発表スライドです。Deep Learningの主なフレームワークで共通する設計部分と、実験の仕方について説明しています。
Top-K Off-Policy Correction for a REINFORCE Recommender System
Top-K Off-Policy Correction for a REINFORCE Recommender System
harmonylab
?
Top-K Off-Policy Correction for a REINFORCE Recommender Systemの解説
第2回 NIPS+読み会?関西 発表資料 山本
第2回 NIPS+読み会?関西 発表資料 山本
驰补丑辞辞!デベロッパーネットワーク
?
Coevolutionary Latent Feature Processes for Continuous-Time User-Item Interaction
エキ Py 読書会02 2010/9/7
エキ Py 読書会02 2010/9/7
Tetsuya Morimoto
?
PRMU201902 Presentation document
PRMU201902 Presentation document
Masayuki Tanaka
?
深層学習に関する(個人的な)取り組みの紹介
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
NVIDIA Japan
?
このスライドは 2017 年 4 月 18 日(水)に東京ミッドタウンで開催された NVIDIA Deep Learning Institute Day #NVDLD のハンズオン セッション 3「リカレント ニューラル ネットワーク入門」にて村上真奈がプレゼンテーションを行ったスライドです。
Python Kyoto study
Python Kyoto study
Naoya Inada
?
エキ Py 読書会02 2章前半
エキ Py 読書会02 2章前半
Tetsuya Morimoto
?
2010/9/7 の読書会でお話した内容を 9/29 に少し に修正しました。
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
Deep Learning JP
?
2019/03/01 Deep Learning JP: http://deeplearning.jp/seminar-2/
分類問題 - 機械学習ライブラリ scikit-learn の活用
分類問題 - 機械学習ライブラリ scikit-learn の活用
y-uti
?
社内勉強会で『Python 機械学習プログラミング』の第 3 章の発表を担当した際の資料です。教科書で触れられている各アルゴリズムについて、アルゴリズムの概要と Iris データセットへの適用结果を説明しています。 発表資料に対応して、Jupyter Notebook で実行した ipynb ファイルを Gist にアップロードしています。 https://gist.github.com/y-uti/bd0928ad4f4eff7794a00108f6cbe7cc [2017-05-08] スライド 37 ページの内容はカーネル SVM の理解について大きな誤りがあったため取り消します。
各言語の k-means 比較
各言語の k-means 比較
y-uti
?
MATLAB, R, Python の k-means について、それぞれの入出力やオプションの違いを比較してみました。 第 10 回「続?わかりやすいパターン認識」読書会の LT で発表した資料です。
jjugccc2018 app review postmortem
jjugccc2018 app review postmortem
tamtam180
?
収益を支える中规模アプリケーション开発奋闘记
エキ Py 読書会02 2章後半
エキ Py 読書会02 2章後半
Tetsuya Morimoto
?
2010/10/5 の読書会でお話した内容です。
Deep learning入門
Deep learning入門
magoroku Yamamoto
?
deep learning,theano
顿厂贵2018讲演スライド
顿厂贵2018讲演スライド
Hiroki Nakahara
?
Design Solution Forum 2018の講演で使用したスライドです。
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
nkazuki
?
研究室輪講用資料です. 発表論文は「Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puzzles」で,ASE2012に採択されています.
础尘别产补におけるレコメンデーションシステムの绍介
础尘别产补におけるレコメンデーションシステムの绍介
cyberagent
?
2016年7月25日開催 「夏真っ盛り!Spark + Python + Data Science祭り」
たのしい関数型
たのしい関数型
Shinichi Kozake
?
第1回 関数型言語勉強会 大阪 の資料です。
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
Hiroki Nakahara
?
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
?
Top-K Off-Policy Correction for a REINFORCE Recommender System
Top-K Off-Policy Correction for a REINFORCE Recommender System
harmonylab
?
第2回 NIPS+読み会?関西 発表資料 山本
第2回 NIPS+読み会?関西 発表資料 山本
驰补丑辞辞!デベロッパーネットワーク
?
エキ Py 読書会02 2010/9/7
エキ Py 読書会02 2010/9/7
Tetsuya Morimoto
?
PRMU201902 Presentation document
PRMU201902 Presentation document
Masayuki Tanaka
?
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
NVIDIA Japan
?
Python Kyoto study
Python Kyoto study
Naoya Inada
?
エキ Py 読書会02 2章前半
エキ Py 読書会02 2章前半
Tetsuya Morimoto
?
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
Deep Learning JP
?
分類問題 - 機械学習ライブラリ scikit-learn の活用
分類問題 - 機械学習ライブラリ scikit-learn の活用
y-uti
?
各言語の k-means 比較
各言語の k-means 比較
y-uti
?
jjugccc2018 app review postmortem
jjugccc2018 app review postmortem
tamtam180
?
エキ Py 読書会02 2章後半
エキ Py 読書会02 2章後半
Tetsuya Morimoto
?
Deep learning入門
Deep learning入門
magoroku Yamamoto
?
顿厂贵2018讲演スライド
顿厂贵2018讲演スライド
Hiroki Nakahara
?
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
nkazuki
?
础尘别产补におけるレコメンデーションシステムの绍介
础尘别产补におけるレコメンデーションシステムの绍介
cyberagent
?
たのしい関数型
たのしい関数型
Shinichi Kozake
?
落合 Wba hackathon2_成果報告_最終版
1.
Attention Control 第2回WBA hackathon 落合、都築
2.
やったこと
3.
やったこと Free Energy Principleの ニューラルネットによる実装
4.
Free Energy Principle
?
5.
Free Energy Principle
by K.Friston
6.
Free Energy=精度 +
複雑度 = ?? ?(?|?)[log ? ? ? ? ] + ? ??[?(?|?)||? ? ? ]? ?, ? ? ? ? :Hidden or external states :Sensory states :Internal states(ex. zの平均、分散) 精度 複雑度
7.
Internal state ? =
arg min ?(?, ?) 予測誤差を最小化するよう 内部パラメータを学習 (通常の生成モデル学習) ?
8.
Internal state Action(Attention) ? =
arg min ?(?, ?) ? = arg min ?(?, ?) 予測誤差を最小化するよう 内部パラメータを学習 (通常の生成モデル学習) 予測誤差を最小化する行動 を生成 予測=注目 (Active Inference) ? ?
9.
実装
10.
Free Energy Principle
= Variational Autoencoder ? Variational Autoencoder(VAE)は変分ベイズをニューラルネッ トで表現したもの ? 変分ベイズではFree Energyを最小化している ? Free Energyを内部パラメータ調節で最小化するNetwork =Variational Autoencoder ? 今回の目標:Active InferenceをVAEに追加 ? Active Inference=Free Energyを最小化する動きを生成す ること
11.
?? ? ? ? ?? FC ? ?? ? ? ? ?? FC ? ?′
?′ ?? ? ?? FC ?′ ?? ?? ? ?? FC ?′ ?? t=0 t=1 layer=0 layer=1 Active Inference Network ? ? ? FC ?? ?? ?′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic
12.
?? ? ? ? ?? FC ? ?? ? ? ? ?? FC ? ?′
?′ ?? ? ?? FC ?′ ?? ?? ? ?? FC ?′ ?? t=0 t=1 layer=0 layer=1 Active Inference Network ? ? ? FC ?? ?? ?′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic 今回作成範囲
13.
?? ? ? ? ?? FC ? ?? ? ? ? ?? FC ? ?′
?′ ?? ? ?? FC ?′ ?? ?? ? ?? FC ?′ ?? t=0 t=1 layer=0 layer=1 Active Inference Network ? ? ? FC ?? ?? ?′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic Variational Autoencoder
14.
?? ? ? ? ?? FC ? ?? ? ? ? ?? FC ? ?′
?′ ?? ? ?? FC ?′ ?? ?? ? ?? FC ?′ ?? t=0 t=1 layer=0 layer=1 Active Inference Network ? ? ? FC ?? ?? ?′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic Action
15.
学习环境
16.
環境 エージェント MNIST画像を並べた 56x56ピクセルの空間 (トーラス状に回り込み) 着目領域 28x28ピクセル 着目領域内の画像 着目領域の 相対移動方向 ?? ? ? ? ?? FC ? ?′ dx
= -1 or 1, dy=-1 or 1 ピクセル単位の移動
17.
结果
18.
Step 0~100 予測画像 軌跡 スタート
19.
Step 4000~4100 予測画像 軌跡 スタート
20.
Step 4000~4100 予測画像 軌跡 スタート
21.
Step 8000~8100 予測画像 軌跡 スタート
22.
Step 8000~8100 予測画像 軌跡 スタート
23.
Step 12000~12100 予測画像 軌跡 スタート
24.
Step 16000~16100 予測画像 軌跡 スタート
25.
Step 20000~20100 予測画像 軌跡 スタート
26.
loss Epoch(1Epoch = 100Step)
27.
LSTMを追加:Step 16000~16100 予測画像 軌跡 スタート
28.
LSTMを追加:Step 16000~16100 予測画像 軌跡 スタート
29.
LSTMを追加:Step 16000~16100 予測画像 軌跡 スタート
30.
考察 ? 予測誤差を最小化するため一箇所で振動 ? 理由 ?
環境が固定、かつ行動の外乱なし ? 予測誤差は最小化ではなく一定の値になるよう行動を決 めるべき? ? 予測誤差が少なすぎる?退屈 ? 予測誤差が高すぎる?不安 ? 報酬、トップダウン信号が必要
31.
?すごい: Free Energy
Principleを大規模化可能な 形で実装 ?おもろい:制御への応用可能性(後述) ?脳っぽい:Free Energy Principleは脳の実験 データによる裏付けも出始めている
32.
Future Work
33.
?探索行動の継続を矯正 ?多層化 ?トップダウンでの行動生成
34.
?探索行動の継続を矯正 ?多層化 ?トップダウンでの行動生成
35.
?? ? ? ? ?? FC ? ?? ? ? ? ?? FC ? ?′
?′ ?? ? ?? FC ?′ ?? ?? ? ?? FC ?′ ?? t=0 t=1 layer=0 layer=1 Active Inference Network ? ? ? FC ?? ?? ?′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic 作成予定範囲
36.
柔軟な行動生成 ?マップ上でのナビゲーション課題 ←こいつを探したい ある特定の画像を,マップ上で探し出す
37.
?? ? ? ? ?? FC ? ?? ? ? ? ?? FC ? ?′
?′ ?? ? ?? FC ?′ ?? ?? ? ?? FC ?′ ?? t=0 t=1 layer=0 layer=1 Active Inference Network ? ? ? FC ?? ?? ?′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic 探索対象の画像を入力、ボトムアップ計算
38.
?? ? ? ? ?? FC ? ?? ? ? ? ?? FC ? ?′
?′ ?? ? ?? FC ?′ ?? ?? ? ?? FC ?′ ?? t=0 t=1 layer=0 layer=1 Active Inference Network ? ? ? FC ?? ?? ?′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic 上位層のzを固定し、ボトムアップとトップダウン信号を流す
39.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor ゴム紐
40.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
41.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
42.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
43.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
44.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
45.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
46.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
47.
END
48.
以降付録
49.
キーワード ? Free Energy
Principle ? Predictive Coding ? Policy Gradient(action の強化学習で使用) ? Variational Autoencoder ? 変分ベイズ ? 変分下界 ? エントロピー
50.
環境、ライブラリ ? Python 2.7 ?
Chainer 1.15.0.1
51.
Variational Autoencoderの式 参考:http://qiita.com/skitaoka/items/64eab1d6c09a189d5841 log ?
? ? = log ?(?|?) ? ?(?, ?) ?(?|?) ?? = ? ? ? log ? ?(?, ?) ?(?|?) ?? + ? ??[?(?|?)||? ? ? ? ] ? ?(?|?) :真の潜在変数の事後分布 ?(?|?) :? ?(?|?)の近似分布(Neural Networkで表現) log ? ? ? :対数尤度。これを最大化する?を見つけ出したい 下界 = ?(?) 真の分布と近似誤差の差 ? ? = ? ? ? log ? ? ?, ? ? ? ? ?? = ? ?(?|?)[log ? ? ? ? ] ? ? ??[?(?|?)||? ? ? ] ???①
52.
Free Energyの式 = ??
?(?|?)[log ? ? ? ? ] + ? ??[?(?|?)||? ? ? ] ? ?, ? = ? ?(?|?)[? log ? ?(?, ?)] ? ?[?(?|?)] 参考:https://en.wikipedia.org/wiki/Free_energy_principle Energy Entropy ???② ? ? ? :Hidden or external states :Sensory states :Internal states ? ? ? ? World In Brain
53.
両者は同じもの ? ? =
? ?(?|?)[log ? ? ? ? ] ? ? ??[?(?|?)||? ? ? ] ①より ②より ?(?, ?) = ?? ?(?|?)[log ? ? ? ? + ? ??[?(?|?)||? ? ? ] ?? ? = ?? ? ? ? [log ? ? ? ? ] + ? ??[?(?|?)||? ? ? ] ?? ? = ?? ? ? ? [log ? ? ? ? ] + ? ??[?(?|?)||? ? ? ] 観測された値でInternal statesを代用 正規分布と仮定 ? Free Energy ?(?, ?)は最小化、変分下界?(?)は最大化。? ?, ? = ??(?)よりやっていることも同じ。 ? ?(?)の確率関数はニューラルネットによる近似
54.
Free Energy Principle
= Variational Autoencoder ? Variational Autoencoder(VAE)は変分ベイズをニューラルネットで表現 したもの( http://www.asahi-net.or.jp/~fb8t-ysok/docs/vae/ ) ? 変分ベイズではFree Energyを最小化している ( http://nktmemoja.github.io/jekyll/update/2016/08/20/variational- bayes.html ) ? Free Energyを内部パラメータ調節で最小化するNetwork =Variational Autoencoder ? 今回の目標:Active InferenceをVAEに追加 ? Active Inference=Free Energyを最小化する動きを生成すること
55.
1枚ものスライド
56.
Free Energy Principle
by Friston implement “Active Inference Network” ?ある状態を実現するための,行動を生成するネットワークの提案 Test ?マップ上でのナビゲーション課題 ←こいつを探したい ある特定の画像を,マップ上で探し出す
Download