狠狠撸

狠狠撸Share a Scribd company logo
ANTS Chap. 22
Surface Laplacian
坂本 嵩
慶應義塾大学環境情報学部
学部?大学院修士四年一貫教育プログラム
2020.05.20. ANTS輪読会
Cohen (2014), “Analyzing Neural Time Series Data”
本スライドはANTS本の22章を
参考にしています。
脳波解析を簡潔にbut網羅的に
解説する良書です。
原著あたった方が早いかも。
付録ありで、かなり進めやすいです。
?YouTubeのビデオレクチャー
?無料のサンプルコード
?有料のUdemyバージョン
その前に
ラプラシアンフィルタ
目次
目的?メリット?デメリット?注意
点
1. ラプラシアンフィルタとは
空間局所度があがり、
topographic mapの可視化が便利に
2. 嬉しいこと①:空間局所度
Volume Conductionが減ると
コネクティビティが捗る
3. 嬉しいこと②:コネクティビティ
要は重み付け
4. 計算方法
#とは空間局所度結合性計算方法
空間におけるハイパスフィルタ
周波数フィルタ
特定の周波数情報を目立たせる
空間フィルタ
特定の空間情報を目立たせる
頭皮全体に渡る活動を減衰させる
ラプラシアンフィルタとは
#とは
メリット?デメリット
メリット
?電極ベースの空間局所度↑
?Volume-conduction ノイズ↓
?レファレンス電極に依らない
?パラメータ / 仮定が少ない
(?活動源推定)
ラプラシアンフィルタとは
デメリット
?頭蓋全体に渡る活動↓ e.g.) P3b
?脳回表面の活動のみ取れる
?深い or 振幅が超同期している
活動源は取れない
#とは
注意点
?電極が多くないとダメ(最低64ch)
100以上が望ましい
空間フィルタなんだからサンプリング点は多くないと、ね
?時間データにしかかけちゃダメ
時間周波数解析の後にかけちゃダメ(α帯だけとかは?)
ERPは時間データのままなのでおk
?一部の条件 / 被験者を抜き出すのはダメ
ラプラシアンフィルタとは
#とは
空間局所度の上昇(右:シミュ、下:実データ)
右A: 低周波なシード@Pz
右B: 高周波なシード@C3, C4
右C: A + B (観測値)
右D: C + ラプラシアンフィルタ
高周波成分が取り出せる!
嬉しいこと①
空間局所度
空間局所度の上昇、その解釈
①?生?ラプラシアン
?600msの左前中頭
→元々見えてた信号
②?生?ラプラシアン
?200msの右後頭
?300-600msの右前中頭
→隠れてた信号
③?生?ラプラシアン
→容積伝導ノイズ (or 全体的な活動)
嬉しいこと①
空間局所度
おまけ:>100chの場合
超高周波成分が除けたりする
嬉しいこと①
空間局所度
コネクティビティ解析におけるノイズ削減
嬉しいこと②
分散の80%は距離、わお ほら、すごいでしょ!
結合性
ナイーブな近似
近傍電極の平均を引き算する→全体的な活動はなんとなく消える
でも容積伝導は距離によって決まる
→Perrin et al. の方法
計算方法
計算方法
大まかな流れ(Perrin et al.の方法)
①重み行列G?Hを計算
②G行列をデータに適用
③H行列をかけてラプラシアンを計算
計算方法
計算方法
G行列?H行列:重み行列
計算方法
計算方法
G行列?H行列:重み行列
i, j: 電極のインデックス
cosdistij: 電極iと電極jの位置ベクトルのコサイン類似度≒内積≒距離
m: 定数。4が推奨。小さいと高周波数情報のみを通すようになる
Pn(x): ルジャンドル多項式(ググって)
n: ルジャンドル多項式の次数。7が推奨。
計算方法
計算方法
G行列?H行列:ルジャンドル多項式の次数
増やせば空間周波数↑
高すぎると個別性↑共通性↓
=被験者間平均?比較が困難に
著者は7を推奨
64chだと10くらいまで情報が増える
(空間サンプリング周波数=電極数
より空間周波数が高くなる限度)
100chまでだと13とか15まで
計算方法
計算方法
重み行列をデータにかける→ラプラシアン
λ:Gの対角成分に足す平滑化パラメーター
10-5 ~10-6 推奨。大きいと平滑に、小さいと局所的に。
(中身何も理解できてないです。。。)
計算方法
計算方法
空間のハイパスフィルタ→ノイズ除去&可視化
頭皮全体に渡る活動を除去
局所的な活動が見えやすくなる!
容積伝導のノイズも減る!
でもP3bとかは消えちゃう…
まとめ
まとめ

More Related Content

What's hot (20)

惭尝蹿濒辞飞で学ぶ惭尝翱辫蝉ことはじめ
惭尝蹿濒辞飞で学ぶ惭尝翱辫蝉ことはじめ惭尝蹿濒辞飞で学ぶ惭尝翱辫蝉ことはじめ
惭尝蹿濒辞飞で学ぶ惭尝翱辫蝉ことはじめ
Kenichi Sonoda
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
15分て?わかる(范囲の)ヘ?イス?统计学
15分て?わかる(范囲の)ヘ?イス?统计学15分て?わかる(范囲の)ヘ?イス?统计学
15分て?わかる(范囲の)ヘ?イス?统计学
Ken'ichi Matsui
?
齿骋叠辞辞蝉迟から狈骋叠辞辞蝉迟まで
齿骋叠辞辞蝉迟から狈骋叠辞辞蝉迟まで齿骋叠辞辞蝉迟から狈骋叠辞辞蝉迟まで
齿骋叠辞辞蝉迟から狈骋叠辞辞蝉迟まで
Tomoki Yoshida
?
Point net
Point netPoint net
Point net
Fujimoto Keisuke
?
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス?ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス?ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス?ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス?ヘイスティングス法
Ken'ichi Matsui
?
【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces Underfitting【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces Underfitting
Deep Learning JP
?
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回
ke beck
?
Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)
itoyan110
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
?
楽天市場データ + 機械学習を用いた予測事例の紹介 梅田卓志/楽天株式会社
楽天市場データ + 機械学習を用いた予測事例の紹介  梅田卓志/楽天株式会社楽天市場データ + 機械学習を用いた予測事例の紹介  梅田卓志/楽天株式会社
楽天市場データ + 機械学習を用いた予測事例の紹介 梅田卓志/楽天株式会社
Rakuten Group, Inc.
?
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...
SSII
?
础迟迟别苍迟颈辞苍の基础から罢谤补苍蝉蹿辞谤尘别谤の入门まで
础迟迟别苍迟颈辞苍の基础から罢谤补苍蝉蹿辞谤尘别谤の入门まで础迟迟别苍迟颈辞苍の基础から罢谤补苍蝉蹿辞谤尘别谤の入门まで
础迟迟别苍迟颈辞苍の基础から罢谤补苍蝉蹿辞谤尘别谤の入门まで
AGIRobots
?
笔测诲补迟补冲リクルートにおける产补苍诲颈迟アルコ?リス?ム冲実装前まて?のフ?ロセス
笔测诲补迟补冲リクルートにおける产补苍诲颈迟アルコ?リス?ム冲実装前まて?のフ?ロセス笔测诲补迟补冲リクルートにおける产补苍诲颈迟アルコ?リス?ム冲実装前まて?のフ?ロセス
笔测诲补迟补冲リクルートにおける产补苍诲颈迟アルコ?リス?ム冲実装前まて?のフ?ロセス
Shoichi Taguchi
?
阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁
Hiroshi Shimizu
?
Lucas kanade法について
Lucas kanade法についてLucas kanade法について
Lucas kanade法について
Hitoshi Nishimura
?
金融时系列のための深层迟过程回帰モデル
金融时系列のための深层迟过程回帰モデル金融时系列のための深层迟过程回帰モデル
金融时系列のための深层迟过程回帰モデル
Kei Nakagawa
?
叠贰搁罢分类ワークショップ.辫辫迟虫
叠贰搁罢分类ワークショップ.辫辫迟虫叠贰搁罢分类ワークショップ.辫辫迟虫
叠贰搁罢分类ワークショップ.辫辫迟虫
Kouta Nakayama
?
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
?
惭尝蹿濒辞飞で学ぶ惭尝翱辫蝉ことはじめ
惭尝蹿濒辞飞で学ぶ惭尝翱辫蝉ことはじめ惭尝蹿濒辞飞で学ぶ惭尝翱辫蝉ことはじめ
惭尝蹿濒辞飞で学ぶ惭尝翱辫蝉ことはじめ
Kenichi Sonoda
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
15分て?わかる(范囲の)ヘ?イス?统计学
15分て?わかる(范囲の)ヘ?イス?统计学15分て?わかる(范囲の)ヘ?イス?统计学
15分て?わかる(范囲の)ヘ?イス?统计学
Ken'ichi Matsui
?
齿骋叠辞辞蝉迟から狈骋叠辞辞蝉迟まで
齿骋叠辞辞蝉迟から狈骋叠辞辞蝉迟まで齿骋叠辞辞蝉迟から狈骋叠辞辞蝉迟まで
齿骋叠辞辞蝉迟から狈骋叠辞辞蝉迟まで
Tomoki Yoshida
?
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス?ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス?ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス?ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス?ヘイスティングス法
Ken'ichi Matsui
?
【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces Underfitting【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces Underfitting
Deep Learning JP
?
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回
ke beck
?
Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)
itoyan110
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
?
楽天市場データ + 機械学習を用いた予測事例の紹介 梅田卓志/楽天株式会社
楽天市場データ + 機械学習を用いた予測事例の紹介  梅田卓志/楽天株式会社楽天市場データ + 機械学習を用いた予測事例の紹介  梅田卓志/楽天株式会社
楽天市場データ + 機械学習を用いた予測事例の紹介 梅田卓志/楽天株式会社
Rakuten Group, Inc.
?
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 ? TransformerのCompute...
SSII
?
础迟迟别苍迟颈辞苍の基础から罢谤补苍蝉蹿辞谤尘别谤の入门まで
础迟迟别苍迟颈辞苍の基础から罢谤补苍蝉蹿辞谤尘别谤の入门まで础迟迟别苍迟颈辞苍の基础から罢谤补苍蝉蹿辞谤尘别谤の入门まで
础迟迟别苍迟颈辞苍の基础から罢谤补苍蝉蹿辞谤尘别谤の入门まで
AGIRobots
?
笔测诲补迟补冲リクルートにおける产补苍诲颈迟アルコ?リス?ム冲実装前まて?のフ?ロセス
笔测诲补迟补冲リクルートにおける产补苍诲颈迟アルコ?リス?ム冲実装前まて?のフ?ロセス笔测诲补迟补冲リクルートにおける产补苍诲颈迟アルコ?リス?ム冲実装前まて?のフ?ロセス
笔测诲补迟补冲リクルートにおける产补苍诲颈迟アルコ?リス?ム冲実装前まて?のフ?ロセス
Shoichi Taguchi
?
阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁
Hiroshi Shimizu
?
金融时系列のための深层迟过程回帰モデル
金融时系列のための深层迟过程回帰モデル金融时系列のための深层迟过程回帰モデル
金融时系列のための深层迟过程回帰モデル
Kei Nakagawa
?
叠贰搁罢分类ワークショップ.辫辫迟虫
叠贰搁罢分类ワークショップ.辫辫迟虫叠贰搁罢分类ワークショップ.辫辫迟虫
叠贰搁罢分类ワークショップ.辫辫迟虫
Kouta Nakayama
?
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
?

脳波解析での空間フィルタ(ラプラシアン)Analyzing Neural Times Series Data 22章