狠狠撸

狠狠撸Share a Scribd company logo
Chapter 5
基本的な回帰とモデルのチェック
~重回帰~
Osaka.Stan#2 (2016.12.23)
広島大学大学院教育学研究科
平川 真
重回帰 (multiple linear regression)
?目的変数を複数の説明変数で予測する
→回帰分析の説明変数が複数になっただけ
2
?
?2
?1
本書で扱うデータ
出欠率に関する架空データ (n = 50)
A: アルバイトが好きかどうかの2値 (好き = 1)
Score: 学問への興味の強さ (200点満点)
Y: 1年間の出欠率 (出席回数 / 総授業回数)
* 総授業回数は200~500(人によって異なる)
3
解析の目的
?2つの説明変数AとScoreで、応答変数Yがどれほど予測できる
か知りたい
?それぞれの説明変数が出欠率にどれほど影響しているか知りたい
出欠率
Score
A
4
データの分布の確認
{GGally}のggpairs()を
カスタマイズ(↓)したら→に
カスタマイズ、、、
5
データの分布の確認
6
これでも
まぁそれなりに
データの分布の確認
アルバイトが好きな
学生は出席率が低そう
説明変数間に
相関はなさそう
学問への興味が強い
学生は出席率が高そう
Scoreは正規分布
に従いそう
7
メカニズムの想像
?アルバイトが好きな学生は出席率が低そう
?学問への興味が強い学生は出席率が高そう
?AとScoreの2変数の線形結合によって、
出席率 (Y) が決まる、と仮定
?? = ?1 + ?2 ? + ?3 ?????(決定的な関係)
加えて、
出欠率は他の変数や測定誤差などの影響もうける、と仮定
それらの影響を ? (ノイズ) とし、平均0の正規分布に従う、と仮定
?? = ?1 + ?2 ? + ?3 ????? + ?(確率的な関係) 8
モデル式の記述
モデル式5-1
? ? = ?1 + ?2 ? ? + ?3 ????? ? + ? ? ? = 1, … , ?
? ? ~?????? 0, ? ? = 1, … , ?
9
AとScoreの線形結合 ノイズ
ノイズは平均0, 標準偏差?
の正規分布従う
モデル式の記述
モデル式5-2 ( ? を消去)
? ? ~?????? ?1 + ?2 ? ? + ?3 ????? ? , ? ? = 1, … , ?
10
(再) モデル式5-1
? ? = ?1 + ?2 ? ? + ?3 ????? ? + ? ? ? = 1, … , ?
? ? ~?????? 0, ? ? = 1, … , ?
モデル式の記述
モデル式5-3
? ? = ?1 + ?2 ? ? + ?3 ????? ? ? = 1, … , ?
? ? ~?????? ?[?], ? ? = 1, … , ?
11
Yの予測値*はAとScoreの線形結合で決定する
予測値*を中心に標準偏差?の正規分布
に従うノイズがのって、Yの値が決まる
*ここでは予測値を一つの値の指すものとして使っており、本書とは異なる意味で使ってます。
本書では予測値は予測分布のとりうる値を指します。
モデル式5-2(再)
? ? ~?????? ?[?], ?
? ? = ?1 + ?2 ? ? + ?3 ????? ? ? = 1, … , ?
12
Yは正規分布から発生している
正規分布の平均パラメタは、説明変数の線形結合で表現され
る
? ? ~?????? ?1 + ?2 ? ? + ?3 ????? ? , ? ? = 1, … , ?
?平均パラメタを代入してやればモデル式5-2
Stanで実装
13
(再) モデル式5-3
? ? = ?1 + ?2 ? ? + ?3 ????? ? ? = 1, … ?
? ? ~?????? ?[?], ? ? = 1, … , ?
そのまま
model5-3.stan
←Scoreは200点満点だったが、
0-1の範囲で指定されている
←のちにベイズ予測区間を描くので、
予測分布からのMCMCサンプルを生成
とりあえず実行
14
run-model5-3.R
1秒だけMCMC(*?Д`)????
他にも50人分のmuとy_pred, lp__が出力されるが省略
←Scoreを200で割って、
0-1の範囲にしている
推定結果の解釈
得られた事後平均をモデル式に代入すると
回帰係数は「説明変数が1増えたときのyの平均的な変化量」
15
収束している模
様
? ? = 0.13 ? 0.14 ? ? ? + 0.32 ?
????? ?
200
? = 1, … , ?
? ? ~?????? ?[?], 0.05 ? = 1, … , ?
データのスケーリング
データのスケーリングをする理由:
大きさがバラバラだとパラメタの探索が非効率になり、
計算に時間がかかったり、収束しにくくなったりするため
16
←Scoreを200で割って、
0-1の範囲にしている
run-model5-3.R
←Scoreは200点満点だったが、
0-1の範囲で指定されている
model5-3.stan
試してみた
17
model5-3.stan
Scoreを0-1の範囲にせず
データをわたした場合
←回帰係数は説明変数が1増加した
ときのyの増分なので、小さくなる
0.32/200=0.0016
ほんとだ
外挿について
外挿: データ範囲の外側を予測すること
アルバイト好きでScoreが0点の学生の出席率は?
0.13 ? 0.14 ? 1 + 0.32 ?
0
200
= ?0.01
18
? ? = 0.13 ? 0.14 ? ? ? + 0.32 ?
????? ?
200
? = 1, … , ?
? ? ~?????? ? ? , 0.05 ? = 1, … , ?
出席率が負?
データの範囲外の値について
の予測はしない方がよい
パラメタの幅の確認
分布でしょ!
19
95%ベイズ信頼区間
[0.06~0.19] [-0.17~-0.11]
[0.22~0.42] [0.04~0.06]
図によるモデルのチェック
ベイズ予測区間
* 説明変数が2つの場合、データに
平面をあてはまることになる
?3次元の図は見にくいので、
Aの値別に描画
* ここでは80%区間で描画している
20
実測値と予測値のプロット
先のような可視化は、3変数以上になると難しい
?実測値と予測値*の関係を把握
多くの点が? = ?の直線の近く
?2変数で応答変数を十分に予測
できている
* 予測値=予測分布の取りうる値
21
推定されたノイズの分布
ノイズについての仮定: ?????? (0, ?)に従う
?この仮定の妥当性をチェック
各人のノイズ(実測値―予測値)の
MAP推定値を集計
破線: 平均0, SD=0.05の正規分布
乖離が小さい→
22
MCMCサンプルの散布図行列
パラメタ間の関係を把握
23
まとめ
重回帰: 複数の変数で応答変数を予測する
モデル:
交互作用→Chap7.1
多重共線性→Chap7.4
24
? ? ~?????? ?[?], ?
? ? = ?0 + ?1 ?1 + ?2 ?2 + ? + ? ? ? ?
1)Yは正規分布から発生している
2) 正規分布の平均パラメタは、
説明変数の線形結合で表現される
おまけ
~モデルの理解を深めるために~
Osaka.Stan#2 (2016.12.23)
架空データの作り方
架空データを自分で作って(*?Д`)????する
(真値がわかっているので、モデルの性質を把握しやすい)
26
rnorm(): 正規分布に従う乱数を発生
Cf. モデル式
? ? = ?0 + ?1 ?1 + ?2 ?2 + ? ?
? ? ~?????? 0, ?
同じ
lm()で分析すると↓
←平均3, 標準偏差1の
正規分布に従う乱数を100個発生
Stanで推定
27
モデル (modelブロックのみ)
実行コード
Cf. 発生させたデータ
パラメタの真値は ?0 = 3, ?1 = 2, ?2 = 5, ? = 2.5
うまく推定できている
←パラメタについて
弱情報事前分布を設定
ノイズの大きさをいじってみる
28
? = 0.5
? = 10
cf. ? = 3
実測値と予測値が
対応しにくくなる
パラメタのベイズ信頼区間は
ノイズが大きくなると広がる
* 事後平均値はlm()と一致する
ノイズが大きいと乱数の発生毎に
係数は大きく変化
説明変数に相関をもたせてみる
29
母相関がrhoとなる2変数の発生コード
↓MCMCサンプルの散布図行列
説明変数に相関をもたせてみる
30
Ad

Recommended

数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013
Shuyo Nakatani
?
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
ssuserf4860b
?
星野「调査観察データの统计科学」第3章
星野「调査観察データの统计科学」第3章
Shuyo Nakatani
?
データ解析5 単回帰分析
データ解析5 単回帰分析
Hirotaka Hachiya
?
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学
ssuserf4860b
?
PRML 2.3.1-2.3.2
PRML 2.3.1-2.3.2
KunihiroTakeoka
?
PRML 8.4-8.4.3
PRML 8.4-8.4.3
KunihiroTakeoka
?
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
sleepy_yoshi
?
详説飞辞谤诲2惫别肠
详説飞辞谤诲2惫别肠
Haruka Oikawa
?
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
?
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
sleepy_yoshi
?
笔搁惭尝轮読#3
笔搁惭尝轮読#3
matsuolab
?
13.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#4
Yoshitake Takebayashi
?
一般化线形混合モデル入门の入门
一般化线形混合モデル入门の入门
Yu Tamura
?
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)
Yoshitake Takebayashi
?
【論文紹介】Distributed Representations of Sentences and Documents
【論文紹介】Distributed Representations of Sentences and Documents
Tomofumi Yoshida
?
笔搁惭尝轮読#6
笔搁惭尝轮読#6
matsuolab
?
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
?
続?わかりやすいパターン認識 9章
続?わかりやすいパターン認識 9章
hakusai
?
続?わかりやすいパターン认识第5章
続?わかりやすいパターン认识第5章
Roy Ray
?
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
sleepy_yoshi
?
笔搁惭尝轮読#4
笔搁惭尝轮読#4
matsuolab
?
データ解析13 线形判别分析
データ解析13 线形判别分析
Hirotaka Hachiya
?
Rで実験計画法 前編
Rで実験計画法 前編
itoyan110
?
Rで実験計画法 後編
Rで実験計画法 後編
itoyan110
?
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
kunihikokaneko1
?
2017年3月版テ?ータマエショリスト入门(误植修正版)
2017年3月版テ?ータマエショリスト入门(误植修正版)
Yuya Matsumura
?
MCMCサンプルの使い方 ~見る?決める?探す?発生させる~
MCMCサンプルの使い方 ~見る?決める?探す?発生させる~
. .
?

More Related Content

What's hot (20)

PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
sleepy_yoshi
?
详説飞辞谤诲2惫别肠
详説飞辞谤诲2惫别肠
Haruka Oikawa
?
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
?
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
sleepy_yoshi
?
笔搁惭尝轮読#3
笔搁惭尝轮読#3
matsuolab
?
13.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#4
Yoshitake Takebayashi
?
一般化线形混合モデル入门の入门
一般化线形混合モデル入门の入门
Yu Tamura
?
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)
Yoshitake Takebayashi
?
【論文紹介】Distributed Representations of Sentences and Documents
【論文紹介】Distributed Representations of Sentences and Documents
Tomofumi Yoshida
?
笔搁惭尝轮読#6
笔搁惭尝轮読#6
matsuolab
?
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
?
続?わかりやすいパターン認識 9章
続?わかりやすいパターン認識 9章
hakusai
?
続?わかりやすいパターン认识第5章
続?わかりやすいパターン认识第5章
Roy Ray
?
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
sleepy_yoshi
?
笔搁惭尝轮読#4
笔搁惭尝轮読#4
matsuolab
?
データ解析13 线形判别分析
データ解析13 线形判别分析
Hirotaka Hachiya
?
Rで実験計画法 前編
Rで実験計画法 前編
itoyan110
?
Rで実験計画法 後編
Rで実験計画法 後編
itoyan110
?
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
kunihikokaneko1
?
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
sleepy_yoshi
?
详説飞辞谤诲2惫别肠
详説飞辞谤诲2惫别肠
Haruka Oikawa
?
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
?
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
sleepy_yoshi
?
笔搁惭尝轮読#3
笔搁惭尝轮読#3
matsuolab
?
一般化线形混合モデル入门の入门
一般化线形混合モデル入门の入门
Yu Tamura
?
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)
Yoshitake Takebayashi
?
【論文紹介】Distributed Representations of Sentences and Documents
【論文紹介】Distributed Representations of Sentences and Documents
Tomofumi Yoshida
?
笔搁惭尝轮読#6
笔搁惭尝轮読#6
matsuolab
?
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
?
続?わかりやすいパターン認識 9章
続?わかりやすいパターン認識 9章
hakusai
?
続?わかりやすいパターン认识第5章
続?わかりやすいパターン认识第5章
Roy Ray
?
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
sleepy_yoshi
?
笔搁惭尝轮読#4
笔搁惭尝轮読#4
matsuolab
?
データ解析13 线形判别分析
データ解析13 线形判别分析
Hirotaka Hachiya
?
Rで実験計画法 前編
Rで実験計画法 前編
itoyan110
?
Rで実験計画法 後編
Rで実験計画法 後編
itoyan110
?
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
kunihikokaneko1
?

Viewers also liked (16)

2017年3月版テ?ータマエショリスト入门(误植修正版)
2017年3月版テ?ータマエショリスト入门(误植修正版)
Yuya Matsumura
?
MCMCサンプルの使い方 ~見る?決める?探す?発生させる~
MCMCサンプルの使い方 ~見る?決める?探す?発生させる~
. .
?
Sappo ro#6資料2 ー完全版ー
Sappo ro#6資料2 ー完全版ー
Wakana_kudo
?
Osaka.Stan #3 Chapter 5-2
Osaka.Stan #3 Chapter 5-2
Takayuki Goto
?
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
nishioka1
?
厂迟补苍で辫蝉测肠丑辞辫丑测蝉颈肠蝉──阶层ベイズモデルで恒常法データを分析する──【※顿辞肠蝉飞别濒濒にも同じものを上げています】
厂迟补苍で辫蝉测肠丑辞辫丑测蝉颈肠蝉──阶层ベイズモデルで恒常法データを分析する──【※顿辞肠蝉飞别濒濒にも同じものを上げています】
Hiroyuki Muto
?
NagoyaStat #5 データ解析のための?統計モデリング入門 第10章
NagoyaStat #5 データ解析のための?統計モデリング入門 第10章
nishioka1
?
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
nocchi_airport
?
厂迟补苍と搁で折れ线回帰──空间的视点取得课题の反応时间データを説明する阶层ベイズモデルを例に──【※顿辞肠蝉飞别濒濒にも同じものを上げています】
厂迟补苍と搁で折れ线回帰──空间的视点取得课题の反応时间データを説明する阶层ベイズモデルを例に──【※顿辞肠蝉飞别濒濒にも同じものを上げています】
Hiroyuki Muto
?
笔谤辞辫丑别迟入门【理论编】贵补肠别产辞辞办の时系列予测ツール
笔谤辞辫丑别迟入门【理论编】贵补肠别产辞辞办の时系列予测ツール
hoxo_m
?
【読书会资料】『厂迟补苍と搁でベイズ统计モデリング』颁丑补辫迟别谤12:时间や空间を扱うモデル
【読书会资料】『厂迟补苍と搁でベイズ统计モデリング』颁丑补辫迟别谤12:时间や空间を扱うモデル
Masashi Komori
?
データ解析のための統計モデリング入門 1~2章
データ解析のための統計モデリング入門 1~2章
itoyan110
?
笔谤辞辫丑别迟入门【搁编】贵补肠别产辞辞办の时系列予测ツール
笔谤辞辫丑别迟入门【搁编】贵补肠别产辞辞办の时系列予测ツール
hoxo_m
?
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
Shushi Namba
?
笔谤辞辫丑别迟入门【笔测迟丑辞苍编】贵补肠别产辞辞办の时系列予测ツール
笔谤辞辫丑别迟入门【笔测迟丑辞苍编】贵补肠别产辞辞办の时系列予测ツール
hoxo_m
?
厂迟补苍と搁でベイズ统计モデリング読书会 导入编(1章~3章)
厂迟补苍と搁でベイズ统计モデリング読书会 导入编(1章~3章)
Hiroshi Shimizu
?
2017年3月版テ?ータマエショリスト入门(误植修正版)
2017年3月版テ?ータマエショリスト入门(误植修正版)
Yuya Matsumura
?
MCMCサンプルの使い方 ~見る?決める?探す?発生させる~
MCMCサンプルの使い方 ~見る?決める?探す?発生させる~
. .
?
Sappo ro#6資料2 ー完全版ー
Sappo ro#6資料2 ー完全版ー
Wakana_kudo
?
Osaka.Stan #3 Chapter 5-2
Osaka.Stan #3 Chapter 5-2
Takayuki Goto
?
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
nishioka1
?
厂迟补苍で辫蝉测肠丑辞辫丑测蝉颈肠蝉──阶层ベイズモデルで恒常法データを分析する──【※顿辞肠蝉飞别濒濒にも同じものを上げています】
厂迟补苍で辫蝉测肠丑辞辫丑测蝉颈肠蝉──阶层ベイズモデルで恒常法データを分析する──【※顿辞肠蝉飞别濒濒にも同じものを上げています】
Hiroyuki Muto
?
NagoyaStat #5 データ解析のための?統計モデリング入門 第10章
NagoyaStat #5 データ解析のための?統計モデリング入門 第10章
nishioka1
?
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
nocchi_airport
?
厂迟补苍と搁で折れ线回帰──空间的视点取得课题の反応时间データを説明する阶层ベイズモデルを例に──【※顿辞肠蝉飞别濒濒にも同じものを上げています】
厂迟补苍と搁で折れ线回帰──空间的视点取得课题の反応时间データを説明する阶层ベイズモデルを例に──【※顿辞肠蝉飞别濒濒にも同じものを上げています】
Hiroyuki Muto
?
笔谤辞辫丑别迟入门【理论编】贵补肠别产辞辞办の时系列予测ツール
笔谤辞辫丑别迟入门【理论编】贵补肠别产辞辞办の时系列予测ツール
hoxo_m
?
【読书会资料】『厂迟补苍と搁でベイズ统计モデリング』颁丑补辫迟别谤12:时间や空间を扱うモデル
【読书会资料】『厂迟补苍と搁でベイズ统计モデリング』颁丑补辫迟别谤12:时间や空间を扱うモデル
Masashi Komori
?
データ解析のための統計モデリング入門 1~2章
データ解析のための統計モデリング入門 1~2章
itoyan110
?
笔谤辞辫丑别迟入门【搁编】贵补肠别产辞辞办の时系列予测ツール
笔谤辞辫丑别迟入门【搁编】贵补肠别产辞辞办の时系列予测ツール
hoxo_m
?
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
Shushi Namba
?
笔谤辞辫丑别迟入门【笔测迟丑辞苍编】贵补肠别产辞辞办の时系列予测ツール
笔谤辞辫丑别迟入门【笔测迟丑辞苍编】贵补肠别产辞辞办の时系列予测ツール
hoxo_m
?
厂迟补苍と搁でベイズ统计モデリング読书会 导入编(1章~3章)
厂迟补苍と搁でベイズ统计モデリング読书会 导入编(1章~3章)
Hiroshi Shimizu
?
Ad

Similar to Osaka.stan#2 chap5-1 (20)

一般线形モデル
一般线形モデル
MatsuiRyo
?
统计的学习の基础冲3章
统计的学习の基础冲3章
Shoichi Taguchi
?
厂迟补苍コードの书き方 中级编
厂迟补苍コードの书き方 中级编
Hiroshi Shimizu
?
惭辫濒耻蝉の使い方 中级编
惭辫濒耻蝉の使い方 中级编
Hiroshi Shimizu
?
カステラ本勉強会 第三回
カステラ本勉強会 第三回
ke beck
?
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
Issei Kurahashi
?
EMNLP 2011 reading
EMNLP 2011 reading
正志 坪坂
?
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
?
搁の辞辫迟颈尘関数でロバスト回帰(尝惭厂と尝础痴)
搁の辞辫迟颈尘関数でロバスト回帰(尝惭厂と尝础痴)
wada, kazumi
?
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
hirokazutanaka
?
回帰
回帰
Shin Asakawa
?
実験計画法入門 Part 3
実験計画法入門 Part 3
haji mizu
?
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
Junki Marui
?
搁别驳驳谤别蝉蝉颈辞苍①
搁别驳驳谤别蝉蝉颈辞苍①
Yuta Tomomatsu
?
20140514冲水曜セミナー発表资料冲中村知繁
20140514冲水曜セミナー発表资料冲中村知繁
Tomoshige Nakamura
?
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
?
2014年5月14日冲水曜セミナー発表内容冲贵滨狈础尝
2014年5月14日冲水曜セミナー発表内容冲贵滨狈础尝
Tomoshige Nakamura
?
Casual learning machine learning with_excel_no4
Casual learning machine learning with_excel_no4
KazuhiroSato8
?
みと?りほ?ん読書会 第4章
みと?りほ?ん読書会 第4章
Masanori Takano
?
一般线形モデル
一般线形モデル
MatsuiRyo
?
统计的学习の基础冲3章
统计的学习の基础冲3章
Shoichi Taguchi
?
厂迟补苍コードの书き方 中级编
厂迟补苍コードの书き方 中级编
Hiroshi Shimizu
?
惭辫濒耻蝉の使い方 中级编
惭辫濒耻蝉の使い方 中级编
Hiroshi Shimizu
?
カステラ本勉強会 第三回
カステラ本勉強会 第三回
ke beck
?
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
Issei Kurahashi
?
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
?
搁の辞辫迟颈尘関数でロバスト回帰(尝惭厂と尝础痴)
搁の辞辫迟颈尘関数でロバスト回帰(尝惭厂と尝础痴)
wada, kazumi
?
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
hirokazutanaka
?
実験計画法入門 Part 3
実験計画法入門 Part 3
haji mizu
?
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
Junki Marui
?
搁别驳驳谤别蝉蝉颈辞苍①
搁别驳驳谤别蝉蝉颈辞苍①
Yuta Tomomatsu
?
20140514冲水曜セミナー発表资料冲中村知繁
20140514冲水曜セミナー発表资料冲中村知繁
Tomoshige Nakamura
?
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
?
2014年5月14日冲水曜セミナー発表内容冲贵滨狈础尝
2014年5月14日冲水曜セミナー発表内容冲贵滨狈础尝
Tomoshige Nakamura
?
Casual learning machine learning with_excel_no4
Casual learning machine learning with_excel_no4
KazuhiroSato8
?
みと?りほ?ん読書会 第4章
みと?りほ?ん読書会 第4章
Masanori Takano
?
Ad

More from Makoto Hirakawa (6)

今日は何回やればいいのか―状态空间モデルで最大挙上重量を推定し、挙上回数を决める―
今日は何回やればいいのか―状态空间モデルで最大挙上重量を推定し、挙上回数を决める―
Makoto Hirakawa
?
いいからベイズ推定してみる
いいからベイズ推定してみる
Makoto Hirakawa
?
ベータ分布
ベータ分布
Makoto Hirakawa
?
搁で架空データの発生
搁で架空データの発生
Makoto Hirakawa
?
重回帰分析で交互作用効果
重回帰分析で交互作用効果
Makoto Hirakawa
?
重回帰分析で交互作用効果
重回帰分析で交互作用効果
Makoto Hirakawa
?
今日は何回やればいいのか―状态空间モデルで最大挙上重量を推定し、挙上回数を决める―
今日は何回やればいいのか―状态空间モデルで最大挙上重量を推定し、挙上回数を决める―
Makoto Hirakawa
?
いいからベイズ推定してみる
いいからベイズ推定してみる
Makoto Hirakawa
?
搁で架空データの発生
搁で架空データの発生
Makoto Hirakawa
?
重回帰分析で交互作用効果
重回帰分析で交互作用効果
Makoto Hirakawa
?
重回帰分析で交互作用効果
重回帰分析で交互作用効果
Makoto Hirakawa
?

Osaka.stan#2 chap5-1

Editor's Notes

  • #4: 率だから二項分布でモデリングしないと、思われる方もいるかもしれない 分母にあたる授業回数(2項分布でいうN試行数)が多ければ、正規分布で十分近似できるので、このデータで重回帰する。 二項分布をもちいたモデリングについては、次回。
  • #8: Yの分布についての読み取りがないのは何か理由がある? 逆になぜScoreについての読み取りがあるのか
  • #10: 心理统计的な书き方に近い
  • #12: Muについて、心理統計の本ではyの予測値yhutという言い方をしている その言い方でいえば、 Yの予測値はAとScoreの線形結合で決定する 予測値を中心に標準偏差?の正規分布に従うノイズがのって、Yの値が決まる 本書では予測値は予測分布のとりうる値(MCMCサンプル)を指します。
  • #13: モデル5-3の①と②を逆転して
  • #14: データの範囲を指定していた方がよい? 予測分布からのMCMCサンプリング
  • #16: アルバイトが好きな学生(1)はそうでない学生(0)に比べて、出席率が平均的に0.14低い Scoreは0~200点が0~1に変換されているので、0点の学生は200点の学生に比べて出席率が平均的に0.32高い、ということ。 150点の学生は50点の学生に比べて、出席率が平均的に0.16高い
  • #17: パラメタの大きさを1程度にそろえる、とある。 パラメタ?
  • #18: モデルはデータブロックでScoreの範囲についての部分を削除している。 Scoreのデータを200で割らずにわたす
  • #19: 本では「出席率のベースライン尘耻」といういいかた
  • #20: パラメタの値が0より大きい(または小さい)確率を伝統的な統計学における回帰係数の有意性判定になぞらえてBayesian p-valueと呼ぶ流儀もある
  • #21: これまで95%で描画してきたのは伝統的な統計学を意識してのこと 解析者が適宜区間を変えてよいという立場。 この章の解析においては8割の確率で予測を当てれば十分だ、という意向で80%区間
  • #22: 「80%区間が直線を含んでいる」というのは十分に予測できている根拠になる? データ数が少ないなどで、80%区間が広がることもある、のでは ここでの予測値は、予測
  • #23: ここでの予测値は惭颁惭颁サンプルであって、特定の値ではない。
  • #24: 厂辫别补谤尘补苍の顺位相関係数×100
  • #28: 教科書ではtransformed parametersで書いてるけど、モデルブロックでmuを書くこともできる。 書き方の一例として。(ただしgene quaで使えなくなるので、予測区間を書いたりするための予測分布からのMCMCサンプリングを出すときには、transformed paraで書く必要) パラメタの弱情報事前分布として、それぞれ設定。 Sigmaはパラメタの下限を0にしている。ハーフコーシー。 推定はうまくいっているが、乱数依存のところがある。
  • #29: 事后平均値は濒尘と一致するが、パラメタのベイズ信頼区间はノイズが大きいと広がる
  • #30: 回帰係数パラメタの相関
  • #31: 説明変数の相関をいれると推定にちょっと时间がかかる