狠狠撸

狠狠撸Share a Scribd company logo
一般化线形モデル(GLM)入門
2018/01/14 篠田昌和
1. 一般线形モデル
2. 一般化线形モデルの概観
3. 一般化线形モデルの定義
4. GLMのモデル選択
5. 尤度比検定
6. RのGLMライブラリ
一般线形モデルとは
anova= analysis of variance
単回帰分析
重回帰分析
一元配置分散分析
一般线形モデルの定義
これを線型モデル,あるいは一般線型モデルと呼ぶ。
同じ式で書けるため,「推定?検定の手順は基本的に同じ」
→回帰分析と分散分析は区別する必要がない。
→回帰分析と分散分析が混合した分析も可能。
1. 一般线形モデル
2. 一般化线形モデルの概観
3. 一般化线形モデルの定義
4. GLMのモデル選択
5. 尤度比検定
6. RのGLMライブラリ
一般化线形モデルとは
何を拡張するのか
これを言い換えると
1. 観測値の分散
観測値 は期待値 ( )の周りに等分散正規分布に
従って分布
2. 期待値 ( ) に関して ( ) = b
この二つを拡張する。
何を拡張するのか
拡張ポイント1:観測値の分散
正規分布の必要はなく、指数分布族に従えば良い。
(ポアソン分布,二項分布,ガンマ分布など)
拡張ポイント2:線形でなく、線形を関数で処理する
期待値 ( ) に関して ( ) = ( b)
( )は指数関数やロジスティック関数などの「単調関数」
( )の逆関数をリンク関数と呼ぶ。
これを と記すと [E(y)] = b
期待値 ( ) をリンク関数で変換したものが線形関数。
一般化线形モデルの例1
→これはロジスティック回帰
一般化线形モデルの例2
→これはポアソン回帰の一種
尤度の最大値を見つける方法
一方、正規分布以外の誤差の場合はそう簡単には求まらない。
1. 試行錯誤法(ニュートン?ラフソン法,スコア法など)
2. 対数尤度が最大となるパラメーターを探す。
3. 対数尤度をパラメーターで微分してゼロとなるパラメー ターを探す。
1. 一般线形モデル
2. 一般化线形モデルの概観
3. 一般化线形モデルの定義
4. GLMのモデル選択
5. 尤度比検定
6. RのGLMライブラリ
一般化线形モデル(GLM)の3要素
一般化线形モデル(GLM)は、
?誤差構造(error structure)
?線形予測子(linear predictor)
?リンク関数(link function)
の 3 つの要素によって構成されている。
一般化线形モデル - 誤差構造
誤差構造は、従属変数が従う確率分布のこと。
例
?従属変数が身長ならば、その誤差構造は正規分布
?従属変数が種子数を数えたカウントデータならば、その誤差構
造はポアソン分布
このように、一般化线形モデル構築時、どのような誤差構造を選
ぶのかを、従属変数の性質に応じて決める必要がある。
一般化线形モデル - 誤差構造
一般化线形モデルで用いる誤差構造は、指数型分布族と呼ばれ
ている。
指数型分布族の密度関数?確率質量は、f(x;θ)=exp(η(θ)T(x)
?A(θ)+B(x))
の形で表せる。
正規分布、指数分布、ガンマ分布、ポアソン分布、二項分布など。
一般化线形モデル - 線形予測子
線形予測子は、パラメーター β とデザイン行列 x の積で表され
る。
x はデザイン行列と呼ばれ、確率変数とモデルのパラメーター間
の関係を制御する。
一般化线形モデル - 線形予測子
例えば、以下の Y = xβ におけるデザイン行列 x において、確率
変数は Y1
は β1
と β2
の2 つのパラメーターに影響されるが、Y2
は β2
のみに影響されることを意味する。
一般化线形モデル - 線形予測子
デザイン行列は 0 または 1 のように因子で構成されることも、1.2
や 2.3 などのようにパラメーターの加重として構成されることもで
きる。
-> デザイン行列を因子とするか、加重とするかは解析するデータ
の特徴に合わせて決める必要がある。
同じデータに対して、どんな結果を期待したいかによってもデザイ
ン行列の作り方が異なってくる。
-> どんな結果を期待しているのかを予め決定した上で実験を行う
べき。
リンク関数
従属変数が正規分布に従わないとき、E[Y] = Xβ の式でモデル化
すると、正確さが失われる。
-> そこで、従属変数をある関数 G で変換してから、モデル化する
ことで、モデルの正確さが向上する。
G(E[Y]) = Xβ
関数 G はリンク関数と呼ばれている。
一般に、誤差構造が決まれば、リンク関数も自動的に決まること
が多い。
リンク関数
誤差構造 リンク関数
正規分布
指数分布
ポアソン分布
二項分布
リンク関数の例
植物の種子 個体i
のサイズxi
平均種子数λi
λi
=exp(β1
+β2
xi
)
とする。
logλi
=β1
+β2
xi
β1
+β2
xi
は線形予測子。β1
,β2
の線型結合になっているから。
(λi
の関数) = (線形予測子) なので左辺の関数はリンク関数
この場合は対数関数が指定されていることから、対数リンク関数
と呼ぶ。ポアソン回帰をする場合は対数を指定。
一般线形モデルと一般化线形モデル
logλi
=β1
+β2
xi
→λi
=β1
+β2
xi
のように、平均が線形予測子に等しい=リンク関数がない
場合はこの状態を恒等リンク関数(identity link function)と呼ぶ。
→ これは一般化(generalized)ではない線形モデル、
一般线形モデル(general linear model)と呼ぶ。
1. 一般线形モデル
2. 一般化线形モデルの概観
3. 一般化线形モデルの定義
4. GLMのモデル選択
5. 尤度比検定
6. RのGLMライブラリ
最尤推定の復習
ポアソン分布
尤度は全ての個体の確率分布の積なので
対数尤度とると
対数尤度logLを最大化するパラメータを探すのが最尤推定
法。
逸脱度と残差逸脱度
逸脱度 D
はあてはまりの悪さを表現する指標。最大対数尤度*(-2)
最小逸脱度 フルモデルをあてはめたときのD
残差逸脱度 D ー 最小のD
パラメータを増やせば、残差逸脱度はどんどん小さくなる。
AICは予測の良さを重視
モデル選択基準に AIC(Akaike's information criterion)を考え
る。AICはモデルの当てはまりの良さ(goodness of fit)ではなく予
測の良さ(goodness of prediction)を重視するモデル選択基準。
パラメータ数kとすると
AIC= -2{(最大対数尤度)-(最尤推定したパラメータ数)}
= -2(log L^* - k)
= D+2k →AICが最小のモデルが良いモデル。
AICは予測の良さを重視
最大対数尤度 logL*
?たまたま得られた観測データへの当てはまりの良さ。
平均対数尤度 E(logL)
?繰り返し観測データをサンプリングして真のモデルへの予測の良さを評価したもの。
真の統計モデルは不明なので平均対数尤度は現実には分からないが、一定の
バイアス b = logL*
-E(logL) があり、補正の必要がある。
→ b = logL*
-E(logL) - k (k は最尤推定するパラメータ数)
だと分かっているので、
一定モデル logλi
=β1
では、k=1なので、-2をかけた
AIC=-2(logL*
-1) となる。
AICは予測の良さを重視
?モデルを複雑化するだけで、観測データへの当てはまりの良さを表す
 対数尤度logL*
は改善されるので、モデルの複雑さを考慮した
 AICでモデル選択する必要がある。
?モデル選択基準AICは、統計モデルの予測の良さである平均対数尤度の推定値
 であり、これは最大対数尤度 ogL*
のバイアス補正によって評価される。
1. 一般线形モデル
2. 一般化线形モデルの概観
3. 一般化线形モデルの定義
4. GLMのモデル選択
5. 尤度比検定
6. RのGLMライブラリ
AICによるモデル選択と統計モデル検定の比較
統計モデルの検定              AICによるモデル選択
解析対象のデータを確定
↓
統計モデル設計
(帰無仮説?対立仮説)            (単純モデル?複雑モデル)
ネストした統計モデルたちのパラメータの最尤推定計算
   ↓  ↓
帰無仮説棄却の危険率を評価         モデル選択基準AICの評価
   ↓ ↓
帰無仮説棄却の可否を判断 予測の良いモデルを選ぶ
ネストとは
一定モデル
             xモデル
一方のモデルが他方のモデルに含まれる場合、ネストしている
という。ここで一定モデルとxモデルでは、xモデルでβ2
=0 とおくと
一定モデルになる。なので一定モデルとxモデルはネストしている。
このようにネスト関係にあるモデルでAICの推定値を比較して、
どちらかより望ましいかを評価する。
尤度比(likelihood ratio)検定
一定モデル
            
xモデル
尤度比=L1
*
/L2
*
= (一定モデルの最尤尤度)/(xモデルの最尤尤度)
さらに尤度の対数をとり、-2 をかけて逸脱度の差を計算。
ΔD1,2
= -2(logL1
*
- log L2
*
)
ΔD1,2
= D1
- D2
なので二つのモデルの逸脱度の差となっています。
これを検定統計量として使用する。
帰無仮説?対立仮説と2種類の過誤
帰無仮説:一定モデル k=1,β2
=0
対立仮説:xモデル k=2,β2
≠0
?帰無仮説が真のモデルの場合
 データが一定モデルから生成されたのに「逸脱度の差が大きいのでxモデルの方が良
い、帰無仮説は正しくない」と判断する第一種の過誤(typeⅠ error)
↓帰無仮説は 観察された逸脱度の差は
めったにない差
(帰無仮説を棄却)
よくある差
(帰無仮説を棄却できない )
真のモデルである 第一種の過誤 (問題なし)
真のモデルでない (問題なし) 第二種の過誤
帰無仮説?対立仮説と2種類の過誤
?帰無仮説が真のモデルでない場合
 データがxモデルから生成されたのに「逸脱度の差が小さいのでxモデルは意味なく複
雑。一定モデルで観察されたパターンを説明できるから、帰無仮説は正しい」と判断する
第二種の過誤(typeⅡ error)
→実際には第一種の過誤のみ検討する。
→二つのモデルの逸脱度の差が大きいので、帰無仮説は正しくないとする。
第一種の過誤の重視は、検定の非対称性という。
1. 一般线形モデル
2. 一般化线形モデルの概観
3. 一般化线形モデルの定義
4. GLMのモデル選択
5. 尤度比検定
6. RのGLMライブラリ
RのGLM用関数
glm(モデル式, family = 目的変数の分布, data = データフレーム)
リンク関数も指定する場合
glm(モデル式, family = 目的変数の分布(link = リンク関数), data = データフレーム)
glm() デフォルトで組み込まれている一般化线形モデルの関数
glmnet() パッケージ{glmnet}に含まれるElastic Net(Ridge+Lasso)を実装
した一般化线形モデル
対応しているfamilyとリンク関数
binomial(
link = "logit")
目的変数が2値変数
対応しているリンク関数は
● ‘logit’(ロジスティック回帰/ロジットモデル)
● ‘probit’(プロビットモデル)
● ‘cauchit’ ( = Cauchy)
● ‘log’
● ‘cloglog’ (complementary log-log)
poisson(
link = "log")
poisson(link = "log")
目的変数が0以上の離散変数、分散がそこまで大きくない
対応しているリンク関数は
● ‘log’(対数線形モデル)
● ‘identity’
● ‘sqrt’
対応しているfamilyとリンク関数
gaussian(
link = "identity")
目的変数が正規分布に従う
対応しているリンク関数は
● ‘identity’(線形予測子=推定値)
● ‘log’(対数正規)
● ‘inverse’
Gamma(
link = "inverse")
目的変数が0以上の連続変量
対応しているリンク関数は
● ‘inverse’
● ‘identity’
● ‘log’
対応しているfamilyとリンク関数
inverse.gaussian(l
ink = "1/mu^2")
対応しているリンク関数は
● ‘1/mu^2’
● ‘inverse’
● ‘identity’
● ‘log’
quasi(link = "identity", variance = "constant")
quasibinomial(link = "logit")
quasipoisson(link = "log")
参考文献
国立研究開発法人農業?食品産業技術総合研究機構
農業環境変動研究センター 山村光司
数理統計短期集合研修 一般化线形モデル
http://cse.naro.affrc.go.jp/yamamura/Images/kenshuu_slide_glm_2015_applied.pdf
データ解析のための統計モデリング入門
https://www.amazon.co.jp/dp/400006973X
Rにおける代表的な一般化线形モデル( GLM)の実装ライブラリまとめ
https://www.marketechlabo.com/r-glm-libraries/
Rの基本パッケージ中の回帰、分散分析関数一覧
https://goo.gl/PLertn
Ad

Recommended

2 3.GLMの基礎
2 3.GLMの基礎
logics-of-blue
?
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)
Yoshitake Takebayashi
?
心理学者のための骋濒尘尘?阶层ベイズ
心理学者のための骋濒尘尘?阶层ベイズ
Hiroshi Shimizu
?
厂迟补苍の便利な事后処理関数
厂迟补苍の便利な事后処理関数
daiki hojo
?
Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)
itoyan110
?
阶层モデルの分散パラメータの事前分布について
阶层モデルの分散パラメータの事前分布について
hoxo_m
?
骋贰贰(一般化推定方程式)の理论
骋贰贰(一般化推定方程式)の理论
Koichiro Gibo
?
混合モデルを使って反復测定分散分析をする
混合モデルを使って反復测定分散分析をする
Masaru Tokuoka
?
『バックドア基準の入门』@统数研研究集会
『バックドア基準の入门』@统数研研究集会
takehikoihayashi
?
第4回DARM勉強会 (多母集団同時分析)
第4回DARM勉強会 (多母集団同時分析)
Masaru Tokuoka
?
厂迟补苍コードの书き方 中级编
厂迟补苍コードの书き方 中级编
Hiroshi Shimizu
?
2 5 2.一般化线形モデル色々_ロジスティック回帰
2 5 2.一般化线形モデル色々_ロジスティック回帰
logics-of-blue
?
阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁
Hiroshi Shimizu
?
ベイズファクターとモデル选択
ベイズファクターとモデル选択
kazutantan
?
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
Shushi Namba
?
一般化线形モデル (GLM) & 一般化加法モデル(GAM)
一般化线形モデル (GLM) & 一般化加法モデル(GAM)
Deep Learning Lab(ディープラーニング?ラボ)
?
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
logics-of-blue
?
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
Classi.corp
?
マルチレベルモデル講習会 理論編
マルチレベルモデル講習会 理論編
Hiroshi Shimizu
?
媒介分析について
媒介分析について
Hiroshi Shimizu
?
心理学におけるベイズ统计の流行を整理する
心理学におけるベイズ统计の流行を整理する
Hiroshi Shimizu
?
搁で因子分析 商用ソフトで実行できない因子分析のあれこれ
搁で因子分析 商用ソフトで実行できない因子分析のあれこれ
Hiroshi Shimizu
?
状態空間モデルの考え方?使い方 - TokyoR #38
状態空間モデルの考え方?使い方 - TokyoR #38
horihorio
?
阶层ベイズと自由エネルギー
阶层ベイズと自由エネルギー
Hiroshi Shimizu
?
社会心理学と骋濒尘尘
社会心理学と骋濒尘尘
Hiroshi Shimizu
?
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
Ichigaku Takigawa
?
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
?
惭颁惭颁でマルチレベルモデル
惭颁惭颁でマルチレベルモデル
Hiroshi Shimizu
?
一般化线形モデル
一般化线形モデル
MatsuiRyo
?
2 2.尤度と最尤法
2 2.尤度と最尤法
logics-of-blue
?

More Related Content

What's hot (20)

『バックドア基準の入门』@统数研研究集会
『バックドア基準の入门』@统数研研究集会
takehikoihayashi
?
第4回DARM勉強会 (多母集団同時分析)
第4回DARM勉強会 (多母集団同時分析)
Masaru Tokuoka
?
厂迟补苍コードの书き方 中级编
厂迟补苍コードの书き方 中级编
Hiroshi Shimizu
?
2 5 2.一般化线形モデル色々_ロジスティック回帰
2 5 2.一般化线形モデル色々_ロジスティック回帰
logics-of-blue
?
阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁
Hiroshi Shimizu
?
ベイズファクターとモデル选択
ベイズファクターとモデル选択
kazutantan
?
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
Shushi Namba
?
一般化线形モデル (GLM) & 一般化加法モデル(GAM)
一般化线形モデル (GLM) & 一般化加法モデル(GAM)
Deep Learning Lab(ディープラーニング?ラボ)
?
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
logics-of-blue
?
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
Classi.corp
?
マルチレベルモデル講習会 理論編
マルチレベルモデル講習会 理論編
Hiroshi Shimizu
?
媒介分析について
媒介分析について
Hiroshi Shimizu
?
心理学におけるベイズ统计の流行を整理する
心理学におけるベイズ统计の流行を整理する
Hiroshi Shimizu
?
搁で因子分析 商用ソフトで実行できない因子分析のあれこれ
搁で因子分析 商用ソフトで実行できない因子分析のあれこれ
Hiroshi Shimizu
?
状態空間モデルの考え方?使い方 - TokyoR #38
状態空間モデルの考え方?使い方 - TokyoR #38
horihorio
?
阶层ベイズと自由エネルギー
阶层ベイズと自由エネルギー
Hiroshi Shimizu
?
社会心理学と骋濒尘尘
社会心理学と骋濒尘尘
Hiroshi Shimizu
?
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
Ichigaku Takigawa
?
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
?
惭颁惭颁でマルチレベルモデル
惭颁惭颁でマルチレベルモデル
Hiroshi Shimizu
?
『バックドア基準の入门』@统数研研究集会
『バックドア基準の入门』@统数研研究集会
takehikoihayashi
?
第4回DARM勉強会 (多母集団同時分析)
第4回DARM勉強会 (多母集団同時分析)
Masaru Tokuoka
?
厂迟补苍コードの书き方 中级编
厂迟补苍コードの书き方 中级编
Hiroshi Shimizu
?
2 5 2.一般化线形モデル色々_ロジスティック回帰
2 5 2.一般化线形モデル色々_ロジスティック回帰
logics-of-blue
?
阶层ベイズと奥础滨颁
阶层ベイズと奥础滨颁
Hiroshi Shimizu
?
ベイズファクターとモデル选択
ベイズファクターとモデル选択
kazutantan
?
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
Shushi Namba
?
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
logics-of-blue
?
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
Classi.corp
?
マルチレベルモデル講習会 理論編
マルチレベルモデル講習会 理論編
Hiroshi Shimizu
?
心理学におけるベイズ统计の流行を整理する
心理学におけるベイズ统计の流行を整理する
Hiroshi Shimizu
?
搁で因子分析 商用ソフトで実行できない因子分析のあれこれ
搁で因子分析 商用ソフトで実行できない因子分析のあれこれ
Hiroshi Shimizu
?
状態空間モデルの考え方?使い方 - TokyoR #38
状態空間モデルの考え方?使い方 - TokyoR #38
horihorio
?
阶层ベイズと自由エネルギー
阶层ベイズと自由エネルギー
Hiroshi Shimizu
?
社会心理学と骋濒尘尘
社会心理学と骋濒尘尘
Hiroshi Shimizu
?
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
Ichigaku Takigawa
?
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
?
惭颁惭颁でマルチレベルモデル
惭颁惭颁でマルチレベルモデル
Hiroshi Shimizu
?

Similar to 20180118 一般化线形モテ?ル(驳濒尘) (20)

一般化线形モデル
一般化线形モデル
MatsuiRyo
?
2 2.尤度と最尤法
2 2.尤度と最尤法
logics-of-blue
?
Doing Bayesian Data Analysis; Chapter 14
Doing Bayesian Data Analysis; Chapter 14
春 根上
?
【書きかけ】一般化线形モデルの流れ
【書きかけ】一般化线形モデルの流れ
Tomoshige Nakamura
?
第叁回统计学勉强会蔼东大驹场
第叁回统计学勉强会蔼东大驹场
Daisuke Yoneoka
?
第四回统计学勉强会蔼东大驹场
第四回统计学勉强会蔼东大驹场
Daisuke Yoneoka
?
一般线形モデル
一般线形モデル
MatsuiRyo
?
2 5 3.一般化线形モデル色々_Gamma回帰と対数線形モデル
2 5 3.一般化线形モデル色々_Gamma回帰と対数線形モデル
logics-of-blue
?
MLaPP 9章 「一般化线形モデルと指数型分布族」
MLaPP 9章 「一般化线形モデルと指数型分布族」
moterech
?
分布から见た线形モデル?骋尝惭?骋尝惭惭
分布から见た线形モデル?骋尝惭?骋尝惭惭
. .
?
データ解析のための统计モデリング入门-6章后半
データ解析のための统计モデリング入门-6章后半
yukit_cesc
?
テ?ータ解析のための统计モテ?リンク?入门3章后半
テ?ータ解析のための统计モテ?リンク?入门3章后半
Shinya Akiba
?
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
Ryosuke Sasaki
?
0712-2
0712-2
RIKEN Center for Integrative Medical Science Center (IMS-RCAI)
?
データ解析のための統計モデリング入門 1~2章
データ解析のための統計モデリング入門 1~2章
itoyan110
?
(実験心理学徒だけど)一般化线形混合モデルを使ってみた
(実験心理学徒だけど)一般化线形混合モデルを使ってみた
Takashi Yamane
?
データ解析のための統計モデリング入門 6.5章 後半
データ解析のための統計モデリング入門 6.5章 後半
Yurie Oka
?
PRML セミナー
PRML セミナー
sakaguchi050403
?
データ解析のための勉强会第7章
データ解析のための勉强会第7章
TokorosawaYoshio
?
2 7.一般化線形混合モデル
2 7.一般化線形混合モデル
logics-of-blue
?
一般化线形モデル
一般化线形モデル
MatsuiRyo
?
Doing Bayesian Data Analysis; Chapter 14
Doing Bayesian Data Analysis; Chapter 14
春 根上
?
【書きかけ】一般化线形モデルの流れ
【書きかけ】一般化线形モデルの流れ
Tomoshige Nakamura
?
第叁回统计学勉强会蔼东大驹场
第叁回统计学勉强会蔼东大驹场
Daisuke Yoneoka
?
第四回统计学勉强会蔼东大驹场
第四回统计学勉强会蔼东大驹场
Daisuke Yoneoka
?
一般线形モデル
一般线形モデル
MatsuiRyo
?
2 5 3.一般化线形モデル色々_Gamma回帰と対数線形モデル
2 5 3.一般化线形モデル色々_Gamma回帰と対数線形モデル
logics-of-blue
?
MLaPP 9章 「一般化线形モデルと指数型分布族」
MLaPP 9章 「一般化线形モデルと指数型分布族」
moterech
?
分布から见た线形モデル?骋尝惭?骋尝惭惭
分布から见た线形モデル?骋尝惭?骋尝惭惭
. .
?
データ解析のための统计モデリング入门-6章后半
データ解析のための统计モデリング入门-6章后半
yukit_cesc
?
テ?ータ解析のための统计モテ?リンク?入门3章后半
テ?ータ解析のための统计モテ?リンク?入门3章后半
Shinya Akiba
?
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
Ryosuke Sasaki
?
データ解析のための統計モデリング入門 1~2章
データ解析のための統計モデリング入門 1~2章
itoyan110
?
(実験心理学徒だけど)一般化线形混合モデルを使ってみた
(実験心理学徒だけど)一般化线形混合モデルを使ってみた
Takashi Yamane
?
データ解析のための統計モデリング入門 6.5章 後半
データ解析のための統計モデリング入門 6.5章 後半
Yurie Oka
?
データ解析のための勉强会第7章
データ解析のための勉强会第7章
TokorosawaYoshio
?
2 7.一般化線形混合モデル
2 7.一般化線形混合モデル
logics-of-blue
?
Ad

More from Masakazu Shinoda (9)

Ml desginpattern 16_stateless_serving_function_21210511
Ml desginpattern 16_stateless_serving_function_21210511
Masakazu Shinoda
?
Ml desginpattern 12_checkpoints_21210427
Ml desginpattern 12_checkpoints_21210427
Masakazu Shinoda
?
惭尝デザインパターン入门冲颁补蝉肠补诲别
惭尝デザインパターン入门冲颁补蝉肠补诲别
Masakazu Shinoda
?
惭尝デザインパターン入门冲贰尘产别诲诲颈苍驳蝉
惭尝デザインパターン入门冲贰尘产别诲诲颈苍驳蝉
Masakazu Shinoda
?
物体検出の歴史まとめ(1) 20180417
物体検出の歴史まとめ(1) 20180417
Masakazu Shinoda
?
Network weight saving_20190123
Network weight saving_20190123
Masakazu Shinoda
?
Batch normalization effectiveness_20190206
Batch normalization effectiveness_20190206
Masakazu Shinoda
?
Perception distortion-tradeoff 20181128
Perception distortion-tradeoff 20181128
Masakazu Shinoda
?
20180116 量子コンヒ?ュータ概説
20180116 量子コンヒ?ュータ概説
Masakazu Shinoda
?
Ml desginpattern 16_stateless_serving_function_21210511
Ml desginpattern 16_stateless_serving_function_21210511
Masakazu Shinoda
?
Ml desginpattern 12_checkpoints_21210427
Ml desginpattern 12_checkpoints_21210427
Masakazu Shinoda
?
惭尝デザインパターン入门冲颁补蝉肠补诲别
惭尝デザインパターン入门冲颁补蝉肠补诲别
Masakazu Shinoda
?
惭尝デザインパターン入门冲贰尘产别诲诲颈苍驳蝉
惭尝デザインパターン入门冲贰尘产别诲诲颈苍驳蝉
Masakazu Shinoda
?
物体検出の歴史まとめ(1) 20180417
物体検出の歴史まとめ(1) 20180417
Masakazu Shinoda
?
Network weight saving_20190123
Network weight saving_20190123
Masakazu Shinoda
?
Batch normalization effectiveness_20190206
Batch normalization effectiveness_20190206
Masakazu Shinoda
?
Perception distortion-tradeoff 20181128
Perception distortion-tradeoff 20181128
Masakazu Shinoda
?
20180116 量子コンヒ?ュータ概説
20180116 量子コンヒ?ュータ概説
Masakazu Shinoda
?
Ad

20180118 一般化线形モテ?ル(驳濒尘)