狠狠撸

狠狠撸Share a Scribd company logo
ANTS 29章
Mutual Information
坂本 嵩
慶應義塾大学環境情報学部
学部?大学院修士四年一貫教育プログラム
2020.06.09. ANTS勉強会
超ジェネリックな関係性
エントロピー
結合エントロピー
相互情報量の計算
1. 相互情報量とは
とりあえず包含的な関係性
データ数の影響
ノイズとサンプル数の関係
2. 相互情報量の特徴
時間方向?トライアル方向?
振幅値に対して
周波数情報や位相情報に対して
3. 相互情報量の適用
permutation test
4. 相互情報量の統計
とは特徴適用統計
確率とエントロピー
エントロピー=事象の不確実性
高エントロピー:不確実
低エントロピー:確実
? ? = ? ?
?=1
?
? ?? log2 ?(??)
計算するときは log(0) = ?∞ に注意
微小値を足して回避する
相互情報量とは ? エントロピー
とは
振幅、パワーなどの値をまとめた任意のビン
確率
エントロピーは時間に依存しない
時間配置は影響なし
?時間窓内の値をヒストグラムに
集めるだけなので
相互情報量とは ? エントロピー
とは
エントロピーはビン数に依存する
ビンが増える→エントロピー↑
?ビンは多すぎても少なすぎてもダメ
?条件/被験者/電極間のビン数は揃える
Freedman-Diaconis rule
?最適なビン数を決める式
?他にもScott’s ruleやSturger’s rule
????? =
max ? ? min(?)
2? ? ??1/3
相互情報量とは ? エントロピー
とは
エントロピーだけでも指標になる
不確実性の指標
?システムの制約の多さ
?時間&トライアル方向にデータを
集めて計算
?右図下:400ms窓を100msずらし
相互情報量とは ? エントロピー
とは
結合エントロピー=同時確率のエントロピー
? ?, ? = ? ?
?=1
?
?
?=1
?
? ??, ?? log2 ?(??, ??)
相互情報量とは ? 結合エントロピー
とは
相互情報量
2変数の重複した情報
?正 / 負 / 線形 / 非線形 問わない関係性
?? ?, ? = ? ? + ? ? ? ?(?, ?)
相互情報量とは ? 相互情報量
とは
データ数の影響
データ数が減る → H, MI ↑
?ビン数ではなく、サンプル数
対策①:ビン数を変える
対策②:下式を使う
対策③:ノイズが一様なら無視
Δ? =
???? ? 1
2???2
Δ?? =
???? ? 1 2
2???2
相互情報量の特徴
特徴
ノイズの影響
ノイズの影響は結構ある
?サンプリングレートは影響なし
?ノイズも一緒にプロットするため
(平均で消えない)
?フィルタ等して綺麗なデータを使う
相互情報量の特徴
特徴
時間方向 vs トライアル方向
時間方向
?tempo precision が高い
?位相ロックの活動を捉えやすい
トライアル方向
?tempo precision が低い
?非位相ロックの活動も捉えやすい
時間&トライアル方向
?データの増加→ロバスト性向上
相互情報量の適用
適用
適用する際の注意点
ビン数は時間軸で変えないこと
右図:Fz-O1の相互情報量
?400ms窓を100msでスライド
?A:時間窓ごとにビン数を変える
?C:時間窓ごとにビン数を変えない
?B:ビン数と相互情報量の相関
相互情報量の適用
適用
パワー?位相データへの適用
パワー?位相にも適用できる
?corr:正負あり
?MI:正負なし(絶対値的な)
Cross-Freqencyにも適用できる
相互情報量の適用
適用
Lagged Mutual Information
方向性を持つ相互情報量
?時間窓を片方だけズラす
?MIが最大になるのは何秒ズラし?
?一周期分だけズラせばおk
相互情報量の適用
適用
Permutation Test
帰無仮説:2変数間に関係無し
→時間をズラしても値は変わらない
ランダムに時間をズラして分布を作成、
観測値をZ化してp値を計算
相互情報量の統計
統計

More Related Content

脳波解析のための相互情報量 Analyzing Neural Time Series Data 29章