4. 1 変量データとしての集計
? 変量 X について
– データ x1, x2,
??? xn x1 + x2 + ? + xn
x=
– 平均値 n
1 n
s x = ∑ ( xi ? x ) 2
2
– 分散 n i =1
? 変量 Y について
– データ y1, y2,
??? yn y1 + y2 + ? + yn
y=
– 平均値 n
n
1
= ∑ ( yi ? y ) 2
2
sy
– 分散 n i =1 4
13. 回帰直線 (regression line) y=a+bx
? 最小2乗法
– 誤差の考え方 i 番目のデータ (xi, yi) につ
いて
?
データの y の値 yi yi
直線上の y の値 a+bxi =
n n
2 乗誤差の和 ?
Q(a, b) = ∑ ( yi ? yi ) 2 =∑ { yi ? (a + bxi )}2
i =1 i =1
minimize
13
15. y=a+bx
データ
yi ( xi , yi )
誤差
yi = a + bxi
?
xi
15
16. 回帰直線(つづき)
?Q ? n n
= ∑
?a ?a i =1
{yi ? (a + bxi )}2 = ∑ 2{yi ? (a + bxi )}(?1) = 0
i =1
n
∑{y
i =1
i ? (a + bxi )} = 0
n n n
∑ y = ∑ a + b∑ x
i =1
i
i =1 i =1
i
y = a + bx
16
17. ?Q ? n n
= ∑
?b ?b i =1
{yi ? (a + bxi )}2 = ∑ 2{yi ? (a + bxi )}(? xi ) = 0
i =1
?Q ? n ? n
= ∑ {yi ? (a + bxi )} =
2
∑ {yi ? ( y ? bx + bxi )}2
?b ?b i =1 ?b i =1
? n
= ∑
?b i =1
{( yi ? y ) ? b( xi ? x )}2
n
= ∑ 2{( yi ? y ) ? b( xi ? x )}(?( xi ? x )) = 0
i =1
n n
∑(y
i =1
i ? y )( xi ? x ) = b∑ ( xi ? x )( xi ? x )
i =1
n n
1
∑ ( xi ? x )( yi ? y ) n ∑ ( xi ? x )( yi ? y ) sxy
b = i =1 n = i =1 n = 2
1 sx
∑ ( xi ? x )
i =1
2
∑ ( xi ? x )
n i =1
2
17
18. 切片と傾き
y = a + bx
n
1
∑ ( xi ? x )( yi ? y )
s xy n i =1
b= 2 = n
sx 1
∑ ( xi ? x )
n i =1
2
18
19. 回帰直線 (regression line)
? 最小2乗法で求めた直線
? ? ?
y = a + bx
a = y ? bx
?
? ?
y = ( y ? bx ) + bx
? s xy
b= 2 ?
sx y ? y = b( x ? x )
s xy
y ? y = 2 (x ? x)
sx
x = x のとき y = y
19
21. 2本の回帰直线 体重
? 身長 (x) と体重 (y) の回帰直線
s xy 身長
y の (x の上への)
y ? y = 2 (x ? x)
sx 回帰直線
? 体重 (x') と身長 (y') の回帰直線
sx' y ' 身長
y '? y ' = 2 ( x'? x ' )
sx'
? 記号を元の x, y に戻すと 体重
s xy x の (y の上への )
x ? x = 2 ( y ? y ) 回帰直線
sy
21
22. 2本の回帰直线
? y の回帰直線
s xy
y ? y = 2 (x ? x)
sx
? x の回帰直線
s xy
x ? x = 2 ( y ? y)
sy
( x, y ) = ( x , y )
? いずれも という点を
通る ( x, y ) = ( x , y )
? 2本の回帰直线は で
交わる
22
23. 2本の回帰直线が等しくなるの
s は s
xy xy
y? y = 2
(x ? x) x?x = 2
( y ? y)
s
x s y
2
s y
y? y = (x ? x)
s xy
2
s xy sy
2
=
s x s xy
2
sxy
2 2
=1
s s
x y
の場合である 23