狠狠撸

狠狠撸Share a Scribd company logo
确率论基础
@hoxo_m
2016/12/04
1
Watanabe理論勉強会 #7
?? 本資料は
?? Sumio Watanabe, Algebraic Geometry
and Statistical Learning Theory,
Cambridge University Press, 2009.
?? 第7回読書会補?資料です。
2
1.6 Probability Theory
?? この節では確率論の基礎を要約する
?? 確率論に詳しい読者は?ばしてよい
?? 確率論がよく分かっていないので5章に
?る前に復習したい
3
地図
?? 距離空間 = 集合+距離
?? 可測空間 = 距離空間+σ-代数
?? 確率空間 = 可測空間+確率測度
?? 確率変数 = X: 確率空間 → 可測空間
?? 確率分布 PX
?? 確率変数の期待値 E[X]
?? 確率変数の収束
4
定義1.11 距離空間
?? 集合 Ω
?? 関数 D: Ω ? Ω → R
?? D が距離とは
①? ? x, y ∈ Ω, D(x, y) = D(y, x) ≧ 0
②? D(x, y) = 0 ? x = y
③? ? x, y, z ∈ Ω, D(x, y) + D(y, z) ≧ D(x, z)
?? 距離を持つ集合 Ω を距離空間という
5
位相空間について
?? 距離空間の位相は開近傍によって定まる
–?x の開近傍: Uε = { y ∈ Ω ; D(x, y) < ε }
?? 可分空間: 可算稠密部分集合を持つ TS
?? コーシー列 {xn}:
–?任意の δ > 0 に対して M が存在し
m, n > M ? D(xm, xn) < δ
?? 完備: 全てのコーシー列が収束する
?? ポーランド空間: 完備かつ可分な TS
6
Example 1.8
<本書で登場する距離空間 3つ>
(1) 有限次元実ユークリッド空間 Rd
–?距離 D(x, y) = |x – y| = (Σi=1..d(xi – yi)2)?
–?ユークリッドノルム
–?完備かつ可分となる
(2) Rd の部分集合も距離空間
–?有限集合や可算集合を考えることもある
7
Example 1.8 (3)
?? K: Rd のコンパクト部分集合
?? K から Rd’ への連続関数全体の集合
Ω = { f ; f: K → Rd’ }
?? 距離 D(f, g) = maxx∈K | f(x) – g(x) |
?? Ω は距離空間となる
?? K のコンパクト性から Ω は完備かつ可分
8
地図
?? 距離空間 = 集合+距離
?? 可測空間 = 距離空間+σ-代数
?? 確率空間 = 可測空間+確率測度
?? 確率変数 = X: 確率空間 → 可測空間
?? 確率分布 PX
?? 確率変数の期待値 E[X]
?? 確率変数の収束
9
定義1.12 (1) 可測空間
?? Ω: 距離空間
?? B: Ω の部分集合を要素とする σ-代数
?? σ-代数(完全加法族):
①? A1, A2 ∈ B ? A1 ∩ A2 ∈ B (※不要)
②? Ω ∈ B (※原?には無いがこちらを追加)
③? A ∈ B ? Ac ∈ B (Ac は補集合)
④? A1, A2, A3, … ∈ B ? ∪Ai ∈ B (可算個)
?? (Ω, B) を可測空間と呼ぶ
10
定義1.12 (2) 確率空間
?? 可測空間 (Ω, B)
?? 確率測度 P
関数 P: B → [0, 1]
①? P(Ω) = 1
②? 交わりの無い A1, A2, A3, … ∈ B に対して
P(∪Ai) = ΣP(Ai)
?? (Ω, B, P) を確率空間と呼ぶ
11
ボレル集合体 (Borel Field)
?? 位相空間 Ω において、全ての開集合を含
む最?の σ-代数をボレル集合体と呼ぶ
12
Remark 1.18
?? 確率空間 (RN, B, P)
?? RN: N次元実ユークリッド空間
?? B: ボレル集合体
?? 確率分布(測度) P を次で定義する(p(x) ≧ 0)
?? p(x) を確率密度関数と呼ぶ
13
地図
?? 距離空間 = 集合+距離
?? 可測空間 = 距離空間+σ-代数
?? 確率空間 = 可測空間+確率測度
?? 確率変数 = X: 確率空間 → 可測空間
?? 確率分布 PX
?? 確率変数の期待値 E[X]
?? 確率変数の収束
14
定義1.13 確率変数 (1)
?? 確率空間 (Ω, B, P)
?? 可測空間 (Ω1, B1)
?? 関数 X: Ω → Ω1
?? X が可測であるとき、確率変数と呼ぶ
?? 可測関数:
–?任意の B1 ∈ B1 に対して X-1(B1) ∈ B
?? Ω1-valued 確率変数と呼ばれることも
15
定義1.13 確率変数 (2)
?? 関数 ?(B1) = P(X-1(B1)) は (Ω1, B1) 上の
確率測度である
?? したがって (Ω1, B1, ?) は確率空間となる
?? ? を確率変数 X の確率分布と呼ぶ
?? また、X は ? に従うと?う
?? ? は X の像空間(image space)の確率分布
?? 次と同値
16
Remark 1.9
(1) 確率論では次の簡易表記がよく使われる
?? P( f(x) > 0 ) ≡ P({ ω ∈ Ω; f(X(ω)) > 0 })
?? 定義より
P( f(x) > 0 ) = ?({ x ∈ Ω1; f(x) > 0 })
(2) 確率変数 X が従う確率測度(分布) ? を
PX と表記する
?? ?般に X と PX は?対?ではない
?? 確率分布が定まっても確率変数は定まらない
17
Remark 1.9 (2) 例
?? 確率空間 (Ω, 2Ω, P)
?? Ω = { 0, 1, 2, 3 } (※ 原?では {1,2,3,4})
?? P({i}) = 1/4 ( i = 0, 1, 2, 3 )
?? 次の確率変数 X と Y の確率分布は同じ
?? 確率分布からは X と Y は区別できない
18
Remark 1.9 (2) 例
19
0 1
2 3
0
1
0 1
X
Ω Ω1
Ω1
Y
PX(0) = 1/2
PX(1) = 1/2
PY(0) = 1/2
PY(1) = 1/2
Remark 1.9 (3)
?? 本書の定義や定理の中には、確率変数 X
の像空間 Ω1 と確率分布 PX だけしか必要
がない場合がある
?? このような場合、確率空間 (Ω, B, P) の明
?的な記述は省略される
?? その結果、次のようになる
–?確率分布 PX に従う Ω1-valued 確率変数 X に
対して次の等式が成り?つ???
20
地図
?? 距離空間 = 集合+距離
?? 可測空間 = 距離空間+σ-代数
?? 確率空間 = 可測空間+確率測度
?? 確率変数 = X: 確率空間 → 可測空間
?? 確率分布 PX
?? 確率変数の期待値 E[X]
?? 確率変数の収束
21
定義1.14 期待値
?? 確率変数 X: (Ω, B, P) → (Ω1, B1)
?? X は確率分布 PX に従う
?? 期待値:
?? S ? Ω1 の期待値:
22
?? 確率変数 X: (Ω, B, P) → (Ω1, B1)
?? 可測空間 (Ω2, B2)
?? 可測関数 f: Ω1 → Ω2
?? このとき、f(X) は (Ω, B, P) 上の確率変数
?? f(X) の期待値
?? EX[f(X)] とも書く
Remark 1.20 (1)
23
※ 期待値を考えるには
ベクトル空間のような
加算乗算可能となる条件が必要
Remark 1.20 (2) (3)
?? 同じ確率分布に従う2つの確率変数 X と Y
は同じ期待値を持つ
?? E[X] の情報から E[Y] を予測できる
?? 統計的学習理論において、学習誤差から
汎化誤差の期待値を推定することは重要
である
24
Remark 1.20 (4)
?? チェビシェフの不等式 (※マルコフでは?)
?? E[|X|] = C のとき任意の M > 0 に対して
C = E[|X|] ≧ E[|X|]{|X| > M}
≧ M E[1]{|X| > M} = M P(|X| > M)
?? P(|X| > M) ≦ C / M
?? 確率論では同様の導出がよく?われる
25
Remark 1.20 (5) (6)
?? 次が成り?つ
E[|X|] < ∞ ? limM→∞ E[|X|]{|X|≧M} = 0
?? 次を満たす定数 δ > 0 と M0 > 0 が存在
するならば E[|X|] < ∞
?任意の M > M0 に対して
???P(|X| > M) ≦ 1 / M1+δ
26
地図
?? 距離空間 = 集合+距離
?? 可測空間 = 距離空間+σ-代数
?? 確率空間 = 可測空間+確率測度
?? 確率変数 = X: 確率空間 → 可測空間
?? 確率分布 PX
?? 確率変数の期待値 E[X]
?? 確率変数の収束
27
定義1.15 確率変数の収束
?? 確率空間 (Ω, B, P) 上の
?? 確率変数の列 {Xn} と確率変数 X
①?概収束 (almost surely, almost everywhere):
P({ω ∈ Ω; limn→∞ Xn(ω) = X(ω)}) = 1
②?p次平均収束(p > 0):
limn→∞ E[(Xn ? X)p] = 0
③?確率収束: 任意の ε に対して
limn→∞ P(D(Xn, X) > ε) = 0
28
Remark 1.21
?? よく知られている確率変数の収束の性質
①? Xn が X に概収束または p次平均収束す
るとき、Xn は X に確率収束する
②? Xn が X に確率収束するとき、Xn は X に
法則収束する (定義は5章)
③? ?般に、概収束は p次平均収束の必要条
件でも?分条件でもない
29
まとめ
?? 確率論の?場から、本書では次で定義さ
れる確率変数の極限定理を与える
ただし X1, X2, …, Xn は確率変数 X と同じ確率
分布に従う独?な確率変数
30
まとめ
?? 中?極限定理: 確率変数の平均と分散
?? 統計的学習理論: ゼータ関数の最?の極
(pole)と特異変動(singular fluctuation)
?? ?偏差理論(large deviation theory)より
Fn / n → pS (S: X のエントロピー)
?? Main Formula Ⅱ(p.34) と Ⅲ(p.38) は、
?偏差理論よりも正確な結果
31
5章へつづく
32出典:野呂俊介『スピーシーズドメイン(5)』
Ad

Recommended

PPTX
Graph convolution (スペクトルアプローチ)
yukihiro domae
?
PPTX
ベイズ统计学の概论的绍介
Naoki Hayashi
?
PDF
PFI Seminar 2012/03/15 カーネルとハッシュの機械学習
Preferred Networks
?
PDF
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
Shiga University, RIKEN
?
PDF
贰尝叠翱型痴础贰のダメなところ
KCS Keio Computer Society
?
PDF
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
?
PDF
統計的因果推論への招待 -因果構造探索を中心に-
Shiga University, RIKEN
?
PPTX
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
?
PDF
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
PPTX
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
?
PPTX
金融时系列のための深层迟过程回帰モデル
Kei Nakagawa
?
PDF
状態空間モデルの考え方?使い方 - TokyoR #38
horihorio
?
PDF
スペクトラル?クラスタリング
Akira Miyazawa
?
PDF
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
?
PDF
强化学习その3
nishio
?
PDF
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
Ichigaku Takigawa
?
PDF
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
Ken'ichi Matsui
?
PDF
変分推论法(変分ベイズ法)(笔搁惭尝第10章)
Takao Yamanaka
?
PDF
『バックドア基準の入门』@统数研研究集会
takehikoihayashi
?
PDF
ベイズ统计入门
Miyoshi Yuya
?
PDF
几何を使った统计のはなし
Toru Imai
?
PDF
【博士论文発表会】パラメータ制约付き特异モデルの统计的学习理论
Naoki Hayashi
?
PDF
ファクター投资と机械学习
Kei Nakagawa
?
PPTX
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
PDF
制限ボルツマンマシン入门
佑馬 斎藤
?
PDF
笔搁惭尝轮読#9
matsuolab
?
PDF
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
PDF
笔搁惭尝轮読#10
matsuolab
?
PDF
シンギュラリティを知らずに机械学习を语るな
hoxo_m
?
PDF
H231126 統計および確率を利用した予測と判断rev1
Kenichi Takara
?

More Related Content

What's hot (20)

PDF
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
PPTX
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
?
PPTX
金融时系列のための深层迟过程回帰モデル
Kei Nakagawa
?
PDF
状態空間モデルの考え方?使い方 - TokyoR #38
horihorio
?
PDF
スペクトラル?クラスタリング
Akira Miyazawa
?
PDF
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
?
PDF
强化学习その3
nishio
?
PDF
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
Ichigaku Takigawa
?
PDF
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
Ken'ichi Matsui
?
PDF
変分推论法(変分ベイズ法)(笔搁惭尝第10章)
Takao Yamanaka
?
PDF
『バックドア基準の入门』@统数研研究集会
takehikoihayashi
?
PDF
ベイズ统计入门
Miyoshi Yuya
?
PDF
几何を使った统计のはなし
Toru Imai
?
PDF
【博士论文発表会】パラメータ制约付き特异モデルの统计的学习理论
Naoki Hayashi
?
PDF
ファクター投资と机械学习
Kei Nakagawa
?
PPTX
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
PDF
制限ボルツマンマシン入门
佑馬 斎藤
?
PDF
笔搁惭尝轮読#9
matsuolab
?
PDF
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
PDF
笔搁惭尝轮読#10
matsuolab
?
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
?
金融时系列のための深层迟过程回帰モデル
Kei Nakagawa
?
状態空間モデルの考え方?使い方 - TokyoR #38
horihorio
?
スペクトラル?クラスタリング
Akira Miyazawa
?
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
?
强化学习その3
nishio
?
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
Ichigaku Takigawa
?
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
Ken'ichi Matsui
?
変分推论法(変分ベイズ法)(笔搁惭尝第10章)
Takao Yamanaka
?
『バックドア基準の入门』@统数研研究集会
takehikoihayashi
?
ベイズ统计入门
Miyoshi Yuya
?
几何を使った统计のはなし
Toru Imai
?
【博士论文発表会】パラメータ制约付き特异モデルの统计的学习理论
Naoki Hayashi
?
ファクター投资と机械学习
Kei Nakagawa
?
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
制限ボルツマンマシン入门
佑馬 斎藤
?
笔搁惭尝轮読#9
matsuolab
?
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
笔搁惭尝轮読#10
matsuolab
?

Viewers also liked (20)

PDF
シンギュラリティを知らずに机械学习を语るな
hoxo_m
?
PDF
H231126 統計および確率を利用した予測と判断rev1
Kenichi Takara
?
PDF
経験过程
hoxo_m
?
PDF
MLaPP 2章 「確率」(前編)
Shinichi Tamura
?
PDF
贰迟丑别谤苍别迟や颁笔鲍などの话
Takanori Sejima
?
PPTX
便利な数を100亿个の乱数から算出
Toshiyuki Shimono
?
PPTX
ベイズ基本0425
asato kuno
?
PDF
Cpu pipeline basics
Shinichiro Niiyama
?
PDF
カップルが一绪にお风吕に入る割合をベイズ推定してみた
hoxo_m
?
PDF
2015年度先端骋笔骋笔鲍シミュレーション工学特论 第15回 颁笔鲍と骋笔鲍の协调
智啓 出川
?
PPTX
仕事の流儀 Vol1 基本編_ver1.1_外部公開ver
Hirotaka Nishimiya
?
PPTX
AtCoder Regular Contest 016 解説
AtCoder Inc.
?
PDF
奥颈苍诲辞飞蝉10の展开手法
NAOKI ABE
?
PPTX
「数学の世界」発表资料
spdbear
?
PDF
Life with jupyter
Etsuji Nakai
?
PDF
Cpu cache arch
Shinichiro Niiyama
?
PDF
統計勉強会 LT ベイジアンって?
Yuto Suzuki
?
PDF
罢别苍蝉辞谤贵濒辞飞で学ぶ顿蚕狈
Etsuji Nakai
?
PPTX
ゼロから始める自作 CPU 入門
Hirotaka Kawata
?
PDF
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
Etsuji Nakai
?
シンギュラリティを知らずに机械学习を语るな
hoxo_m
?
H231126 統計および確率を利用した予測と判断rev1
Kenichi Takara
?
経験过程
hoxo_m
?
MLaPP 2章 「確率」(前編)
Shinichi Tamura
?
贰迟丑别谤苍别迟や颁笔鲍などの话
Takanori Sejima
?
便利な数を100亿个の乱数から算出
Toshiyuki Shimono
?
ベイズ基本0425
asato kuno
?
Cpu pipeline basics
Shinichiro Niiyama
?
カップルが一绪にお风吕に入る割合をベイズ推定してみた
hoxo_m
?
2015年度先端骋笔骋笔鲍シミュレーション工学特论 第15回 颁笔鲍と骋笔鲍の协调
智啓 出川
?
仕事の流儀 Vol1 基本編_ver1.1_外部公開ver
Hirotaka Nishimiya
?
AtCoder Regular Contest 016 解説
AtCoder Inc.
?
奥颈苍诲辞飞蝉10の展开手法
NAOKI ABE
?
「数学の世界」発表资料
spdbear
?
Life with jupyter
Etsuji Nakai
?
Cpu cache arch
Shinichiro Niiyama
?
統計勉強会 LT ベイジアンって?
Yuto Suzuki
?
罢别苍蝉辞谤贵濒辞飞で学ぶ顿蚕狈
Etsuji Nakai
?
ゼロから始める自作 CPU 入門
Hirotaka Kawata
?
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
Etsuji Nakai
?
Ad

Similar to 确率论基础 (20)

PDF
確率?統計の基礎勉強会 (1)
Hiroaki Tanaka
?
PDF
第4回スキル养成讲座 讲义スライド
keiodig
?
PDF
統計的因果推論 勉強用 isseing333
Issei Kurahashi
?
PPTX
Prml 1.3~1.6 ver3
Toshihiko Iio
?
PDF
【社内勉强会用】统计学超入门
Akira Torii
?
PDF
第4回惭补肠丑颈苍别尝别补谤苍颈苍驳のための数学塾资料(浅川)
Shin Asakawa
?
PDF
はじめての確率論 測度から確率へ 57~60ページ ノート
Chihiro Kusunoki
?
PDF
笔搁惭尝轮讲用资料10章(パターン认识と机械学习,近似推论法)
Toshiyuki Shimono
?
PPTX
Introduction to Statistical Estimation (統計的推定入門)
Taro Tezuka
?
PPTX
确率の基础
諒 片山
?
PDF
PRML2.1 2.2
Takuto Kimura
?
PDF
Prml2.1 2.2,2.4-2.5
Takuto Kimura
?
PDF
PRML_titech 2.3.1 - 2.3.7
Takafumi Sakakibara
?
PDF
若手研究者のための招待讲演会
Joe Suzuki
?
PDF
2013 03 25
Mutsuki Kojima
?
PDF
第4章 確率的学習---単純ベイズを使った分類
Wataru Shito
?
PPT
050 確率と確率分布
t2tarumi
?
PDF
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
Toshiyuki Shimono
?
PPTX
Dbda03
Yoshifumi Seki
?
確率?統計の基礎勉強会 (1)
Hiroaki Tanaka
?
第4回スキル养成讲座 讲义スライド
keiodig
?
統計的因果推論 勉強用 isseing333
Issei Kurahashi
?
Prml 1.3~1.6 ver3
Toshihiko Iio
?
【社内勉强会用】统计学超入门
Akira Torii
?
第4回惭补肠丑颈苍别尝别补谤苍颈苍驳のための数学塾资料(浅川)
Shin Asakawa
?
はじめての確率論 測度から確率へ 57~60ページ ノート
Chihiro Kusunoki
?
笔搁惭尝轮讲用资料10章(パターン认识と机械学习,近似推论法)
Toshiyuki Shimono
?
Introduction to Statistical Estimation (統計的推定入門)
Taro Tezuka
?
确率の基础
諒 片山
?
PRML2.1 2.2
Takuto Kimura
?
Prml2.1 2.2,2.4-2.5
Takuto Kimura
?
PRML_titech 2.3.1 - 2.3.7
Takafumi Sakakibara
?
若手研究者のための招待讲演会
Joe Suzuki
?
2013 03 25
Mutsuki Kojima
?
第4章 確率的学習---単純ベイズを使った分類
Wataru Shito
?
050 確率と確率分布
t2tarumi
?
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
Toshiyuki Shimono
?
Ad

More from hoxo_m (20)

PDF
厂丑颈苍测ユーザのための非同期プログラミング入门
hoxo_m
?
PDF
笔谤辞辫丑别迟入门【理论编】贵补肠别产辞辞办の时系列予测ツール
hoxo_m
?
PDF
笔谤辞辫丑别迟入门【搁编】贵补肠别产辞辞办の时系列予测ツール
hoxo_m
?
PDF
机械学习のためのベイズ最适化入门
hoxo_m
?
PDF
学习係数
hoxo_m
?
PDF
笔谤辞辫丑别迟入门【笔测迟丑辞苍编】贵补肠别产辞辞办の时系列予测ツール
hoxo_m
?
PDF
础闯础齿サイトの情报を奥别产スクレイピング
hoxo_m
?
PPTX
高速なガンマ分布の最尤推定法について
hoxo_m
?
PDF
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
hoxo_m
?
PDF
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
?
PDF
阶层モデルの分散パラメータの事前分布について
hoxo_m
?
PDF
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
hoxo_m
?
PDF
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
hoxo_m
?
PDF
协调フィルタリング入门
hoxo_m
?
PDF
データの不備を統計的に見抜く (Gelman’s secret weapon)
hoxo_m
?
PDF
Stan で欠測データの相関係数を推定してみた
hoxo_m
?
PDF
チェビシェフの不等式
hoxo_m
?
PDF
swirl パッケージでインタラクティブ学習
hoxo_m
?
PPTX
RPubs とその Bot たち
hoxo_m
?
PPTX
5分でわかるベイズ确率
hoxo_m
?
厂丑颈苍测ユーザのための非同期プログラミング入门
hoxo_m
?
笔谤辞辫丑别迟入门【理论编】贵补肠别产辞辞办の时系列予测ツール
hoxo_m
?
笔谤辞辫丑别迟入门【搁编】贵补肠别产辞辞办の时系列予测ツール
hoxo_m
?
机械学习のためのベイズ最适化入门
hoxo_m
?
学习係数
hoxo_m
?
笔谤辞辫丑别迟入门【笔测迟丑辞苍编】贵补肠别产辞辞办の时系列予测ツール
hoxo_m
?
础闯础齿サイトの情报を奥别产スクレイピング
hoxo_m
?
高速なガンマ分布の最尤推定法について
hoxo_m
?
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
hoxo_m
?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
?
阶层モデルの分散パラメータの事前分布について
hoxo_m
?
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
hoxo_m
?
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
hoxo_m
?
协调フィルタリング入门
hoxo_m
?
データの不備を統計的に見抜く (Gelman’s secret weapon)
hoxo_m
?
Stan で欠測データの相関係数を推定してみた
hoxo_m
?
チェビシェフの不等式
hoxo_m
?
swirl パッケージでインタラクティブ学習
hoxo_m
?
RPubs とその Bot たち
hoxo_m
?
5分でわかるベイズ确率
hoxo_m
?

确率论基础

  • 2. Watanabe理論勉強会 #7 ?? 本資料は ?? Sumio Watanabe, Algebraic Geometry and Statistical Learning Theory, Cambridge University Press, 2009. ?? 第7回読書会補?資料です。 2
  • 3. 1.6 Probability Theory ?? この節では確率論の基礎を要約する ?? 確率論に詳しい読者は?ばしてよい ?? 確率論がよく分かっていないので5章に ?る前に復習したい 3
  • 4. 地図 ?? 距離空間 = 集合+距離 ?? 可測空間 = 距離空間+σ-代数 ?? 確率空間 = 可測空間+確率測度 ?? 確率変数 = X: 確率空間 → 可測空間 ?? 確率分布 PX ?? 確率変数の期待値 E[X] ?? 確率変数の収束 4
  • 5. 定義1.11 距離空間 ?? 集合 Ω ?? 関数 D: Ω ? Ω → R ?? D が距離とは ①? ? x, y ∈ Ω, D(x, y) = D(y, x) ≧ 0 ②? D(x, y) = 0 ? x = y ③? ? x, y, z ∈ Ω, D(x, y) + D(y, z) ≧ D(x, z) ?? 距離を持つ集合 Ω を距離空間という 5
  • 6. 位相空間について ?? 距離空間の位相は開近傍によって定まる –?x の開近傍: Uε = { y ∈ Ω ; D(x, y) < ε } ?? 可分空間: 可算稠密部分集合を持つ TS ?? コーシー列 {xn}: –?任意の δ > 0 に対して M が存在し m, n > M ? D(xm, xn) < δ ?? 完備: 全てのコーシー列が収束する ?? ポーランド空間: 完備かつ可分な TS 6
  • 7. Example 1.8 <本書で登場する距離空間 3つ> (1) 有限次元実ユークリッド空間 Rd –?距離 D(x, y) = |x – y| = (Σi=1..d(xi – yi)2)? –?ユークリッドノルム –?完備かつ可分となる (2) Rd の部分集合も距離空間 –?有限集合や可算集合を考えることもある 7
  • 8. Example 1.8 (3) ?? K: Rd のコンパクト部分集合 ?? K から Rd’ への連続関数全体の集合 Ω = { f ; f: K → Rd’ } ?? 距離 D(f, g) = maxx∈K | f(x) – g(x) | ?? Ω は距離空間となる ?? K のコンパクト性から Ω は完備かつ可分 8
  • 9. 地図 ?? 距離空間 = 集合+距離 ?? 可測空間 = 距離空間+σ-代数 ?? 確率空間 = 可測空間+確率測度 ?? 確率変数 = X: 確率空間 → 可測空間 ?? 確率分布 PX ?? 確率変数の期待値 E[X] ?? 確率変数の収束 9
  • 10. 定義1.12 (1) 可測空間 ?? Ω: 距離空間 ?? B: Ω の部分集合を要素とする σ-代数 ?? σ-代数(完全加法族): ①? A1, A2 ∈ B ? A1 ∩ A2 ∈ B (※不要) ②? Ω ∈ B (※原?には無いがこちらを追加) ③? A ∈ B ? Ac ∈ B (Ac は補集合) ④? A1, A2, A3, … ∈ B ? ∪Ai ∈ B (可算個) ?? (Ω, B) を可測空間と呼ぶ 10
  • 11. 定義1.12 (2) 確率空間 ?? 可測空間 (Ω, B) ?? 確率測度 P 関数 P: B → [0, 1] ①? P(Ω) = 1 ②? 交わりの無い A1, A2, A3, … ∈ B に対して P(∪Ai) = ΣP(Ai) ?? (Ω, B, P) を確率空間と呼ぶ 11
  • 12. ボレル集合体 (Borel Field) ?? 位相空間 Ω において、全ての開集合を含 む最?の σ-代数をボレル集合体と呼ぶ 12
  • 13. Remark 1.18 ?? 確率空間 (RN, B, P) ?? RN: N次元実ユークリッド空間 ?? B: ボレル集合体 ?? 確率分布(測度) P を次で定義する(p(x) ≧ 0) ?? p(x) を確率密度関数と呼ぶ 13
  • 14. 地図 ?? 距離空間 = 集合+距離 ?? 可測空間 = 距離空間+σ-代数 ?? 確率空間 = 可測空間+確率測度 ?? 確率変数 = X: 確率空間 → 可測空間 ?? 確率分布 PX ?? 確率変数の期待値 E[X] ?? 確率変数の収束 14
  • 15. 定義1.13 確率変数 (1) ?? 確率空間 (Ω, B, P) ?? 可測空間 (Ω1, B1) ?? 関数 X: Ω → Ω1 ?? X が可測であるとき、確率変数と呼ぶ ?? 可測関数: –?任意の B1 ∈ B1 に対して X-1(B1) ∈ B ?? Ω1-valued 確率変数と呼ばれることも 15
  • 16. 定義1.13 確率変数 (2) ?? 関数 ?(B1) = P(X-1(B1)) は (Ω1, B1) 上の 確率測度である ?? したがって (Ω1, B1, ?) は確率空間となる ?? ? を確率変数 X の確率分布と呼ぶ ?? また、X は ? に従うと?う ?? ? は X の像空間(image space)の確率分布 ?? 次と同値 16
  • 17. Remark 1.9 (1) 確率論では次の簡易表記がよく使われる ?? P( f(x) > 0 ) ≡ P({ ω ∈ Ω; f(X(ω)) > 0 }) ?? 定義より P( f(x) > 0 ) = ?({ x ∈ Ω1; f(x) > 0 }) (2) 確率変数 X が従う確率測度(分布) ? を PX と表記する ?? ?般に X と PX は?対?ではない ?? 確率分布が定まっても確率変数は定まらない 17
  • 18. Remark 1.9 (2) 例 ?? 確率空間 (Ω, 2Ω, P) ?? Ω = { 0, 1, 2, 3 } (※ 原?では {1,2,3,4}) ?? P({i}) = 1/4 ( i = 0, 1, 2, 3 ) ?? 次の確率変数 X と Y の確率分布は同じ ?? 確率分布からは X と Y は区別できない 18
  • 19. Remark 1.9 (2) 例 19 0 1 2 3 0 1 0 1 X Ω Ω1 Ω1 Y PX(0) = 1/2 PX(1) = 1/2 PY(0) = 1/2 PY(1) = 1/2
  • 20. Remark 1.9 (3) ?? 本書の定義や定理の中には、確率変数 X の像空間 Ω1 と確率分布 PX だけしか必要 がない場合がある ?? このような場合、確率空間 (Ω, B, P) の明 ?的な記述は省略される ?? その結果、次のようになる –?確率分布 PX に従う Ω1-valued 確率変数 X に 対して次の等式が成り?つ??? 20
  • 21. 地図 ?? 距離空間 = 集合+距離 ?? 可測空間 = 距離空間+σ-代数 ?? 確率空間 = 可測空間+確率測度 ?? 確率変数 = X: 確率空間 → 可測空間 ?? 確率分布 PX ?? 確率変数の期待値 E[X] ?? 確率変数の収束 21
  • 22. 定義1.14 期待値 ?? 確率変数 X: (Ω, B, P) → (Ω1, B1) ?? X は確率分布 PX に従う ?? 期待値: ?? S ? Ω1 の期待値: 22
  • 23. ?? 確率変数 X: (Ω, B, P) → (Ω1, B1) ?? 可測空間 (Ω2, B2) ?? 可測関数 f: Ω1 → Ω2 ?? このとき、f(X) は (Ω, B, P) 上の確率変数 ?? f(X) の期待値 ?? EX[f(X)] とも書く Remark 1.20 (1) 23 ※ 期待値を考えるには ベクトル空間のような 加算乗算可能となる条件が必要
  • 24. Remark 1.20 (2) (3) ?? 同じ確率分布に従う2つの確率変数 X と Y は同じ期待値を持つ ?? E[X] の情報から E[Y] を予測できる ?? 統計的学習理論において、学習誤差から 汎化誤差の期待値を推定することは重要 である 24
  • 25. Remark 1.20 (4) ?? チェビシェフの不等式 (※マルコフでは?) ?? E[|X|] = C のとき任意の M > 0 に対して C = E[|X|] ≧ E[|X|]{|X| > M} ≧ M E[1]{|X| > M} = M P(|X| > M) ?? P(|X| > M) ≦ C / M ?? 確率論では同様の導出がよく?われる 25
  • 26. Remark 1.20 (5) (6) ?? 次が成り?つ E[|X|] < ∞ ? limM→∞ E[|X|]{|X|≧M} = 0 ?? 次を満たす定数 δ > 0 と M0 > 0 が存在 するならば E[|X|] < ∞ ?任意の M > M0 に対して ???P(|X| > M) ≦ 1 / M1+δ 26
  • 27. 地図 ?? 距離空間 = 集合+距離 ?? 可測空間 = 距離空間+σ-代数 ?? 確率空間 = 可測空間+確率測度 ?? 確率変数 = X: 確率空間 → 可測空間 ?? 確率分布 PX ?? 確率変数の期待値 E[X] ?? 確率変数の収束 27
  • 28. 定義1.15 確率変数の収束 ?? 確率空間 (Ω, B, P) 上の ?? 確率変数の列 {Xn} と確率変数 X ①?概収束 (almost surely, almost everywhere): P({ω ∈ Ω; limn→∞ Xn(ω) = X(ω)}) = 1 ②?p次平均収束(p > 0): limn→∞ E[(Xn ? X)p] = 0 ③?確率収束: 任意の ε に対して limn→∞ P(D(Xn, X) > ε) = 0 28
  • 29. Remark 1.21 ?? よく知られている確率変数の収束の性質 ①? Xn が X に概収束または p次平均収束す るとき、Xn は X に確率収束する ②? Xn が X に確率収束するとき、Xn は X に 法則収束する (定義は5章) ③? ?般に、概収束は p次平均収束の必要条 件でも?分条件でもない 29
  • 30. まとめ ?? 確率論の?場から、本書では次で定義さ れる確率変数の極限定理を与える ただし X1, X2, …, Xn は確率変数 X と同じ確率 分布に従う独?な確率変数 30
  • 31. まとめ ?? 中?極限定理: 確率変数の平均と分散 ?? 統計的学習理論: ゼータ関数の最?の極 (pole)と特異変動(singular fluctuation) ?? ?偏差理論(large deviation theory)より Fn / n → pS (S: X のエントロピー) ?? Main Formula Ⅱ(p.34) と Ⅲ(p.38) は、 ?偏差理論よりも正確な結果 31