狠狠撸

狠狠撸Share a Scribd company logo
による
データ分析まわりのお話
@canard0328
機 械 学 习
データサイエンティスト 2
今世紀でもっともセクシーな職業
ハーバード?ビジネス?レビュー 2013年年2?月号
2018年年までに?米国で14?~19万?人不不?足
マッキンゼー 2011年年5?月
求められるスキル
ビジネススキル,機械学习/ビッグデータ,
数学/OR,プログラミング,統計
Analyzing the Analyzers, O’reilly 2013
機械学习ツール?書籍の充実 3
ツール
書籍
書籍やWebの隙間を埋めるようなお話ができれば
本?日お話すること 4
1. データのこと
Keywords: ダミー変数,?欠損値,正規化,次元の呪い
2. 機械学习のこと
Keywords: 機械学习の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同?行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学习,交差検証,学习曲線,バイアス?バリアンス
教師あり学习(後述)寄りの内容が多いです
ターゲットにしている?方 5
1. 分析を始めようとしている?人
基本的な分析?手順を知ることができます
2. 分析結果を受け取る?人
分析の妥当性を判断することができます
3. 分析を依頼する?人
基礎検討を?自前で?行行うことができます
本?日お話しないこと 6
1. 統計のこと
検定とか,有意差がどうとか
2. アルゴリズムの詳細
数式とか
3. ツールの使い?方
Webや書籍が充実しています
4. ビッグデータ関連
データベースとか分散処理理とか
本?日お話すること 7
1. データのこと
Keywords: ダミー変数,?欠損値,正規化,次元の呪い
2. 機械学习のこと
Keywords: 機械学习の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同?行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学习,交差検証,学习曲線,バイアス?バリアンス
?一般的なデータ形式 8
年年齢 性別 加?入?日 加?入プラン 地区 解約
23 男 2012/03/03スタンダード 東京 0
34 ?女女 2014/11/23スタンダード 埼?玉 1
49 男 2000/05/11プレミアム 千葉葉 0
19 男 2013/12/05ライト ?大阪 0
60 ?女女 2011/03/28シニア 東京 0
?
?
?
説明変数,特徴量量 ?目的変数
特徴量量の分類 9
名義尺度度
名前,電話番号など
順序尺度度
レースの着順など
間隔尺度度
摂?氏,華?氏など(乗除不不可)
?比例例尺度度
質量量,??長さなど
特徴量量の分類 10
数値データ(量量的変数)
?比例例尺度度,(間隔尺度度)
カテゴリデータ(質的変数)
名義尺度度,順序尺度度,(間隔尺度度)
機械学习アルゴリズムは数値データを
前提としているものが多い.
カテゴリデータを数値データへ変換
ダミー変数(1-of-K表現) 11
カテゴリデータを数値データへ変換
加?入プラン
スタンダード
スタンダード
プレミアム
ライト
シニア
?
?
?
ライト スタンダード シニア
0 1 0
0 1 0
0 0 0
1 0 0
0 0 1
?
?
?
Feature hashing / Hashing trick 12
ダミー変数はカテゴリの種類が多いと
特徴量量の次元数が?大きくなりすぎる
Feature hashingにより任意の次元に削減
Nの値がある程度度?大きければ精度度への影響?小
x := new vector[N]
for f in features:
h := hash(f)
x[h mod N] += 1
http://en.wikipedia.org/wiki/Feature_hashing
?欠損値の扱い 13
捨てる
?欠損値が少数,データが?大量量
置換する
最頻値,中央値,平均値
補間する
時系列列データ
?欠損値の?生じ?方が完全にランダムでない限り
分析に影響を与える
完全情報最尤推定法,多重代?入法
正規化 14
xの値を10倍しただけでK-meansの
結果が変わってしまう
正規化 15
必要であれば特徴量量ごとに正規化
(Normalization)を?行行う
σ
??
=
x
z
σ
? :xの平均
:xの標準偏差
平均0,標準偏差1にする変換が?一般的
次元の呪い 16
次元の呪い(Curse of dimensionality)
特徴量量(説明変数)の数が増えると汎化性能※を
向上させることが難しくなる
使えそうなデータはなんでも特徴量量に加えて
しまえ,は危険
特徴選択や次元削減により特徴量量の数を減らす
データを?用意する段階で特徴量量を吟味することが?非常に重要
次元の呪いについて,詳しくは「球?面集中現象」を検索索
※未知のデータを予測する性能
特徴選択 17
特徴選択(Feature selection)
特徴量量の中から有?用なものを選び出す
全ての特徴量量の組み合わせを試すのは困難
前向き法(Forward stepwise selection)
有?用な特徴量量を1つずつ選択していく
後ろ向き法(Backward stepwise selection)
不不要な特徴量量を1つずつ削除していく
特徴選択機能を含む機械学习アルゴリズム
決定?木,ランダムフォレスト,Lasso
次元削減 18
次元削減(dimension(ality) reduction)
できるだけ元の情報量量を損なわないように
低次元(少特徴量量)のデータに変換する
主成分分析(Principal component analysis (PCA))
データ全体の分布を近似する部分空間を求める
(線形)判別分析(Linear discriminant analysis (LDA))
ラベルごとの分布の分離離度度が最?大になる部分空間を求める
次元削減 19
x1
x2
主成分分析による次元削減のイメージ
次元削減 20
x1
x2
判別分析による次元削減のイメージ
醜いアヒルの?子定理理 21
醜いアヒルの?子定理理(Ugly duckling theorem)
醜いアヒルの?子と普通のアヒルの?子の類似性は
2?羽の普通のアヒルの?子の類似性と等しい
問題から独?立立した万能な特徴量量は存在しない
特徴量量の設計が重要
1章のまとめ 22
データの前処理理
ダミー変数,?欠損値処理理,正規化
次元の呪い
特徴量量が多いと分析が困難に 特徴選択や次元削減
醜いアヒルの?子定理理
万能な特徴量量は無い 特徴量量の决定が重要
本?日お話すること 23
1. データのこと
Keywords: ダミー変数,?欠損値,正規化,次元の呪い
2. 機械学习のこと
Keywords: 機械学习の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同?行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学习,交差検証,学习曲線,バイアス?バリアンス
機械学习とは 24
“Machine learning is the science of getting
computers to act without being explicitly
programmed.” Andrew Ng
?一般的にはコンピュータの振る舞い?方(モデル)を
(?大量量の)データから学习することにより獲得する.
機械学习の分類 25
教師あり学习(supervised learning)
データが?入?力力と出?力力のペアから成る
? 分類(識識別)(classification):出?力力がラベル
? 回帰(regression):出?力力が数値
教師なし学习(unsupervised learning)
データは?入?力力のみ
? クラスタリング
? 頻出パタンマイニング
? 外れ値検出(outlier detection)
機械学习の分類 26
その他の分類
? 半教師あり学习(semi-supervised learning)
? 強化学习(reinforcement learning)
? 能動学习(active learning)
? 逐次学习(online learning)
? 転移学习(transfer learning)
???
機械学习のアルゴリズム 27
教師あり学习
? 線形モデル(単/重回帰)
? ロジスティック回帰
? 判別分析
? k近傍法
? 決定?木
? サポートベクターマシン
? ニューラルネットワーク
? ナイーブベイズ
? ランダムフォレスト
機械学习のアルゴリズム 28
教師なし学习
? K-means クラスタリング
? 階層的クラスタリング
? Apriori
? One-class SVM
アルゴリズム利利?用時の注意点 29
アルゴリズムによっては
データの分布などに仮定を
おいているものがある.
仮定に合わないデータを分析した場合
適切切な結果が得られないことも
アルゴリズム利利?用時の注意点 30
線形モデル(単/重回帰分析)
x
y
εββββ +++++= ii xxxy L22110
線形モデルは誤差が等分散
正規分布であることを仮定
?一般化線形モデル
(generalized linear model)
※ロジスティック回帰はこの?一種
?一般化
(ポアソン分布,?二項分布,
ガンマ分布,???)
アルゴリズム利利?用時の注意点 31
K-meansクラスタリング
K-meansクラスタリングは
各クラスタが同じ?大きさの
超球であることを仮定して
いる
混合正規分布
(Gaussian mixture model)
クラスタの?大きさに
差がある場合
アルゴリズム利利?用時の注意点 32
ノーフリーランチ定理理
あらゆる問題で性能の良良い
万能な学习アルゴリズムは存在しない
?目的に適したアルゴリズムを選択しましょう
とは?言っても,実?用上,上?手くいくことの多いアルゴリズムがあるのも事実
2章のまとめ 33
教師あり学习
データが?入?力力と出?力力のペア
分類(識識別),回帰
教師なし学习
データが?入?力力のみ
クラスタリング,頻出パタンマイニング,外れ値検出
注意点
データの分布などに仮定をおいているアルゴリズムもある
ノーフリーランチ定理理:万能なアルゴリズムは無い
本?日お話すること 34
1. データのこと
Keywords: ダミー変数,?欠損値,正規化,次元の呪い
2. 機械学习のこと
Keywords: 機械学习の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同?行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学习,交差検証,学习曲線,バイアス?バリアンス
回帰モデルの評価基準 35
平均絶対誤差(Mean absolute error)
?小さいほど良良い
平均?二乗誤差(Mean square(d) error)
?小さいほど良良い
Root Mean Square(d) Errorもよく使われる
決定係数R2(Coefficient of determination)
説明変数が?目的変数をどれくらい説明するか
0(悪い)?~1(良良い)
特徴量量が多いほど?大きな値に ?自由度度調整済み決定係数
( ) Nyy
N
i ii∑=
?= 1
?MAE
( )( ) Nyy
N
i ii∑=
?= 1
2
?MSE
分類(識識別)モデルの評価基準 36
精度度(Accuracy)
正解数÷データ数
誤差率率率(Error rate)
1-精度度
1万?人のデータの内100?人が陽性の場合,
常に陰性と判定するモデルの精度度は99%
これはよいモデルといえるだろうか?
分類(識識別)モデルの評価基準 37
混同?行行列列(Confusion matrix)
予測値
陽性 (Positive) 陰性 (Negative)
正
解
陽性
真陽性
(True positive : TP)
偽陰性
(False negative : FN)
陰性
偽陽性
(False positive : FP)
真陰性
(True ?negative ?: ?TN)
※予測したい事象が?生じている状態が「陽性」
病気を判別したければ,病気の状態が「陽性」で健康な状態が「陰性」
分類(識識別)モデルの評価基準 38
適合率率率(Precision)
TP/(TP + FP)
陽性と予測したものの正解率率率
再現率率率(Recall)
TP/(TP + FN)
陽性のうち正しく予測できた率率率
F値(F1 score, F-measure)
2?(適合率率率?再現率率率) / (適合率率率+再現率率率)
分類(識識別)モデルの評価基準 39
真陽性率率率(True Positive Rate)
TP/(TP + FN)
陽性のうち正しく予測できた率率率(ヒット率率率)
偽陽性率率率(False Positive Rate)
FP/(FP + TN)
陰性のうち誤って陽性と予測した率率率(誤報率率率)
分類(識識別)モデルの評価基準 40
1万?人のデータの内100?人が陽性のとき
常に陰性と判定するモデル
予測値
陽性(Positive) 陰性(Negative)
正
解
陽性 0 100
陰性 0 9900
精度度:0.99
適合率率率:0
再現率率率:0
F値:0
脱線:不不均衡データの分析 41
ラベルに偏りのあるデータは予測が困難
重みづけ
ライブラリを利利?用する場合,簡単に重みづけ可能な
場合が多い
サンプル数の調整
少ない?方を増やす,多い?方を減らす,両?方
SMOTEアルゴリズム
実際にはどちらも決め?手とならないことも多い...
分類(識識別)モデルの評価基準 42
真陽性率率率と偽陽性率率率はトレードオフ
陽性の取りこぼしが無いよう閾値を設定すると,
真陽性率率率は?高くなるが,偽陽性率率率も?高くなる.
ROC曲線
モデルのパラメータを変化させながら,偽陽性率率率と
真陽性率率率をプロットしたもの
AUC
ROC曲線の下側の?面積.1.0が最良良
分類(識識別)モデルの評価基準 43
ROC曲線とAUC
3章のまとめ 44
精度度
精度度が?高ければよいのか?
適合率率率,再現率率率,F値
精度度以外にも様々な評価基準
ROC曲線,AUC
真陽性率率率と偽陽性率率率のトレードオフを可視化
本?日お話すること 45
1. データのこと
Keywords: ダミー変数,?欠損値,正規化,次元の呪い
2. 機械学习のこと
Keywords: 機械学习の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同?行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学习,交差検証,学习曲線,バイアス?バリアンス
分析時の注意点 46
適切切にデータを前処理理して,
適切切なアルゴリズムを選んで分析した.
誤差が?大きい,このアルゴリズムは
使えない!
本当ですか?
> clf = SVC().fit(X, y)
ハイパーパラメータ 47
アルゴリズムはハイパーパラメータを
調整することで性能が?大きく変化
ハイパーパラメータの調整法は?
> clf = SVC(kernel=‘rbf’, C=1.0 gamma=0.1).fit(X, y)
グリッドサーチ 48
各パラメータを適当な範囲で変化させ,最も性能の
よいパラメータの組み合わせを選択する
良良
←
性
能
→
悪
グリッドサーチ 49
パラメータの変化幅,刻み幅
経験に依るところ?大
物理理量量的なもの(例例:決定?木の深さ)は常識識的な範囲で
そうでないものは桁を変えて(10-2,10-1,100,101,102)
2段(多段)グリッドサーチ
初めは広く,荒く
範囲を絞って狭く,細かく
分析時の注意点 50
適切切にデータを前処理理して,
適切切なアルゴリズムを選んで分析した.
誤差0.0(回帰)/F値1.0(分類)だ!
完璧なモデルができた!
本当ですか?
分析時の注意点 51
このモデル(誤差0.0)は未知のデータを
正しく予測できるでしょうか?
過学习 52
過学习(Over fitting)
与えられたデータに(ノイズも含めて)過度度に適合
してしまい,訓練誤差は?小さいが,未知データに対
する性能が低下してしまう状態.
汎化性能
未知のデータに対する性能(汎化性能)を定量量化し
た汎化誤差を?小さくすることが重要
表現?力力の?高いアルゴリズム使?用時,特徴量量が多いとき,与えられたデータが少な
いときに過学习しやすい.
過学习対策 53
正則化(Regularization)
モデルを学习する際に,複雑さが増すことに対する
ペナルティを設け,過学习を防ぐ
複雑さの指標:L2ノルム,L1ノルム,etc.
正則化を考慮した線形モデル
?リッジ回帰(Ridge regression):L2ノルム
?Lasso:L1ノルム
正則化しすぎても性能がでない(Under fitting)
過学习対策 54
交差検証(Cross validation)
データを学习?用と評価?用に分割する
1. B?~Eで学习,Aで評価
2. A,C?~Eで学习,Bで評価
3. A,B,D,Eで学习,Cで評価
4. A?~C,Eで学习,Dで評価
5. A?~Dで学习,Eで評価
6. 1?~5の平均を算出
5分割交差検証(5-fold cross validation)
過学习対策 55
データの分割の仕?方
ランダムにK分割
1サンプルとそれ以外に分割
Leave-one-out cross validation(LOOCV)
ラベルの?比率率率を保ったまま分割
Stratified cross validation
ラベルの?比率率率に偏りのある場合に有効
過学习対策 56
先頭から順にK分割
時刻 温度度 湿度度 天気
8:00 23.2 63.0 曇
8:05 23.5 65.1 曇
8:10 24.0 68.0 曇
8:15 24.1 69.3 ?雨
8:20 24.2 70.1 ?雨
8:25 24.2 70.2 ?雨
8:30 23.9 69.6 曇
…
時系列列データでは,前後の
データの関連が強いことが
ある.
これをランダムに学习?用と
評価?用に分けてしまうと,
汎化誤差が不不当に?小さくな
る.
過学习対策 57
何らかの属性に応じて分割
新たな被験者に対するモデ
ルの性能を評価する場合,
データを被験者ごとに分割
すると良良い.
学习データと評価データの両?方に同じ被験
者のデータが含まれると,汎化誤差が不不当
に?小さくなる.
名前 x y 姿勢
A 23.2 63.0 ?立立
A 23.5 65.1 ?立立
A 24.0 68.0 座
B 24.1 69.3 座
B 24.2 70.1 座
B 24.2 70.2 ?立立
C 23.9 69.6 寝
…
誤差について 58
真のモデル
得られたサンプル
推定したモデル
誤差
ε=N(0, σ2)
差=σ2+Bias2+Variance
Bias(バイアス)
モデルの能?力力に起因する差
Variance(バリアンス)
サンプルに起因する差
バイアスとバリアンス 59
真のモデル
誤差 ε
得られたサンプルたち
推定したモデルたち
真の
モデル
バイアス
バリアンス
バイアスとバリアンス 60
誤差 ε
得られた
サンプルたち
推定した
モデルたち
真のモデル
差は?大きいが,差のばらつきは?小さい → ハイバイアス/ローバリアンス
1次式でモデリング
バイアスとバリアンス 61
誤差 ε
得られた
サンプルたち
推定した
モデルたち
真のモデル
サンプルによる差が?大きい → ローバイアス/ハイバリアンス
多項式でモデリング
バイアスとバリアンス 62
バイアスとバリアンスはトレードオフの関係
柔軟性の?高いモデル(アルゴリズム)
バイアス?小,バリアンス?大 ハイバリアンス
過学习(Over fitting)
柔軟性の低いモデル(アルゴリズム)
バイアス?大,バリアンス?小 ハイバイアス
Under fitting
現在のモデルの状態を確認するには?
学习曲線 63
データサイズを変えながら訓練スコア(誤差)
汎化スコア(誤差)をプロット
学习曲線 64
ハイバイアスの?目安
訓練スコア(誤差)が低い(?大きい)
訓練スコアと汎化スコアの差が?小さい
ハイバリアンスの?目安
訓練スコアと汎化スコアの差が?大きい
汎化スコアの改善がサチっていない
学习曲線 65
ハイバイアス ハイバリアンス
スコアが低い
スコアの差が?小さい
スコアの差が?大きい
学习曲線 66
ハイバイアスの場合
(有効な)特徴量量を増やす
アルゴリズムを(柔軟性の?高いものに)変更更する
ハイバリアンスの場合
データを増やす
(不不要な)特徴量量を削除する
4章のまとめ 67
過学习
汎化性能を評価する必要有
交差検証
データ,?目的に応じて?手法を選択
バイアス,バリアンス
モデルがどういう状態なのか,学习曲線で確認
本?日お話したこと 68
1. データのこと
Keywords: ダミー変数,?欠損値,正規化,次元の呪い
2. 機械学习のこと
Keywords: 機械学习の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同?行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学习,交差検証,学习曲線,バイアス?バリアンス
宣伝 69
機械学习?支援システム MALSS
(Machine Learning Support System)
機械学习によるデータ分析の?一部を?自動化する
Pythonライブラリ
機能
? ダミー変数?生成,?欠損値補間,正規化
? アルゴリズム?自動選択
? 交差検証,グリッドサーチ
? 分析結果レポート
? サンプルコード?生成
宣伝 70
機械学习?支援システム MALSS
インストール
利利?用?方法
> pip install –U malss
> from malss import MALSS
> clf = MALSS('classification‘, lang=‘jp’)
> clf.fit(X, y, ‘report_output_dir')
> clf.make_sample_code('sample_code.py')
宣伝 71
機械学习?支援システム MALSS
レポート
宣伝 72
機械学习?支援システム MALSS
レポート
参考?文献 73
戦略略的データサイエンス?入?門
F. Provost他/オライリー?ジャパン
Coursera: Machine Learning
Andrew Ng/https://www.coursera.org/course/ml
scikit-learn Tutorials
http://scikit-learn.org/stable/tutorial/
Tutorial: Machine Learning for Astronomy with Scikit-learn
http://www.astroml.org/sklearn_tutorial/
データ解析のための統計モデリング?入?門
久保 拓拓弥/岩波書店
朱鷺鷺の杜Wiki
http://ibisforest.org/
参考?文献 74
MALSS (Machine Learning Support System)
https://pypi.python.org/pypi/malss/
https://github.com/canard0328/malss
Pythonでの機械学习を?支援するツール MALSS(導?入)
Qiita/http://qiita.com/canard0328/items/fe1ccd5721d59d76cc77
Pythonでの機械学习を?支援するツール MALSS(基本)
Qiita/http://qiita.com/canard0328/items/5da95ff4f2e1611f87e1
Pythonでの機械学习を?支援するツール MALSS(応?用)
Qiita/ http://qiita.com/canard0328/items/3713d6758fe9c045a19d
本?日お話したこと 75
1. データのこと
Keywords: ダミー変数,?欠損値,正規化,次元の呪い
2. 機械学习のこと
Keywords: 機械学习の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同?行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学习,交差検証,学习曲線,バイアス?バリアンス

More Related Content

机械学习によるデータ分析まわりのお话