狠狠撸

狠狠撸Share a Scribd company logo
Scikit-learnで学ぶ機械学習入門 
佐藤貴海 
@tkm2261 
2014/07/19@機械学習勉強会 
機械学習勉強会 1 2014年7月19日
今日の目的 
?機械学習の雰囲気感じる 
–『こいつ???動くぞ!』くらい 
–わかりやすさ>>>厳密性 
–理論勉強するのも、威力を知ったあとの方が捗る 
?深入りはしない 
–紹介量を優先 
機械学習勉強会 2 2014年7月19日
自己紹介 
専門:経営工学/最適化 
所属:(株)ブレインパッド入社2年目 
業務:データ分析全般(何でも屋さん) 
機械学習との出会い: 
?研究が現在実用性皆無の半正定値計画問題 
?精神の逃げ道として機械学習を趣味で始める 
?研究が詰んで、趣味が本職に 
趣味で始めたので言語、画像など幅広く遊んでます 
この前、多摩川のほとりで1人燻製してきました。 
機械学習勉強会 3 2014年7月19日
Scikit-learnってなに? 
?Pythonの機械学習ライブラリ 
–無料?有料含めて、コレほど充実したライブラリは他にない 
–ほぼデファクトスタンダード状態(と思っている) 
機械学習勉強会 4 2014年7月19日 
利点(対R) 
?高速 
?省メモリ 
?Pythonなので言語基盤がしっかりしている 
?検索しやすい 欠点(対R) 
?カテゴリカル変数の処理(factor型は無い) 
?環境構築が面倒
環境構築 
?よくわからない人 
?Anacondaを入れましょう 
Python導入、環境変数設定、Scikit-learn導入、IDE導入全部やってくれます 
機械学習勉強会 5 2014年7月19日 
http://continuum.io/downloads
環境構築 
機械学習勉強会 6 2014年7月19日 
?こだわりたい人 
?Windowsユーザ 
?GohlkeのページでMKLビルドのNumpyを入れましょう 
保証はないので、自己責任で
環境構築 
機械学習勉強会 7 2014年7月19日 
?こだわりたい人 
?Linuxユーザ 
非商用個人ならインテルコンパイラとMKLが無料で使える 
それ以外は、OpenBLASが高速 
インストール方法はGithubにあげました 
OpenBLASはmultiprocessingとの相性が悪いので要注意 
WindowsでOpenBLASは鬼門なのでやめましょう https://software.intel.com/en-us/non-commercial-software-development 
インストール方法はコチラ https://software.intel.com/en-us/articles/numpyscipy-with-intel-mkl?language=eshttp://gehrcke.de/2014/02/building-numpy-and-scipy-with-intel-compilers-and- intel-mkl-on-a-64-bit-machine/ 
https://github.com/anaguma2261/setup_python_with_openblas
機械学習勉強会 8 2014年7月19日 
脱線:BLASとLAPACK 
数値計算をやると裏で必ずお世話になるのがこの2つ 
?Basic Linear Algebra Subprograms (BLAS) 
-線型代数計算を実行するライブラリの標準仕様 
?Linear Algebra PACKage(LAPACK) 
-BLAS上に構築された固有値計算などの高位な線形代数計算ライブラリ 
現在様々なBLAS実装が公開されている 
?Intel MKL…MATLABはコレ有償すごく速い?高い?安心! 
?ATLAS…自動チューンのBLASBSD速い 
?GotoBLAS2…後藤和茂氏作成のBLASBSDかなり速い開発停止 
?OpenBLAS…xianyi氏によるGotoBLAS2の後継BLASBSDすごく速い 
(MATLAB, R, Octave, numpy…) 
計算が遅い時、4つのどれかの導入すると幸せになれるかも? 
???
脱線:BLASの比較 
機械学習勉強会 9 2014年7月19日 
引用:R BLAS: GotoBLAS2 vsOpenBLASvsMKL (http://blog.felixriedel.com/2012/11/r-blas-gotoblas2-vs-openblas-vs-mkl/) 
実行コード 
A = matrix(rnorm(n*n),n,n) 
A %*% A 
solve(A) 
svd(A) 
RのデフォルトBLASから何倍早くなったか検証してるサイトがあったので紹介 
?最大で11倍ほど高速化 
?MKLが基本的に一番高速 
?OpenBLASも所によってはMKLを上回ることも 
?マルチスレッド環境では導入は必須かも
機械学習勉強会 10 2014年7月19日 
Scikit-learnの前に機械学習の流れもおさらい 
脱線してますが、
機械学習の流れ 
機械学習勉強会 11 2014年7月19日 
分析対象のデータを集める。趣味でやる場合には、結構重要 
最も苦痛を伴う作業。機械学習モデルに渡せる方に整形する 
カテゴリカル変数のダミー変数化、欠損値穴埋め、変数の作成等 
問題に合わせて適当な手法を選択する。 
リッジ回帰、SVM、RandomForest、決定木、k-meansなど 
手法のハイパーパラメータを選択する。 
リッジ回帰の正則化項、決定木の木の深さなど 
尤度最大化などで学習。Scikit-learnがやってくれるので割愛 
問題に合わせて適当な評価尺度を選択する。 
精度、F値、平均二乗誤差、AUCなど 
①データの入手 
②データの前処理 
③手法選択 
④ハイパー 
パラメータ選択 
⑥モデル評価 
精度 
は十分か 
⑤モデル学習 
NO 
YES 
成功! 
手法を 変える 
パラメタを 変える
データを集めて?前処理する 
機械学習勉強会 12 2014年7月19日 
①データの入手 
②データの前処理 
③手法選択 
④ハイパー 
パラメータ選択 
⑥モデル評価 
精度 
は十分か 
⑤モデル学習 
NO 
YES 
成功! 
手法を 変える 
パラメタを 変える 
趣味でやると、手法は知ってても、 
データが無いことが多数 
いくつか、データのある場所を紹介 
◆練習用データ 
?Kagglehttps://www.kaggle.com/ 
?UCI Machine Learning Repository 
http://archive.ics.uci.edu/ml/ 
◆テキストデータ(日本語) 
?2ch 
?TwitterStreamingAPI 
?Wikipediaダンプデータ 
?青空文庫 
前処理はひたすら頑張って下さい。 
ここでどんな変数を作るかで、かなり(一番?)利きます 
Scikit-learnやpandasに便利関数アリ
パラメータの探索 
機械学習勉強会 13 2014年7月19日 
①データの入手 
②データの前処理 
③手法選択 
④ハイパー 
パラメータ選択 
④モデル評価 
精度 
は十分か 
④モデル学習 
NO 
YES 
成功! 
手法を 変える 
パラメタを 変える 
この一連の流れ 
(良いパラメータの発見)を効率良く行う方法が 
?交差検定(Cross-validation ) 
?グリッドサーチ 
どちらもscikit-learnにあります
交差検定(k-fold cross validation ) 
機械学習勉強会 14 2014年7月19日 
①データの入手 
②データの前処理 
③手法選択 
④ハイパー 
パラメータ選択 
⑥モデル評価 
精度 
は十分か 
⑤モデル学習 
NO 
YES 
成功! 
手法を 変える 
パラメタを 変える 
学習と評価には、学習データと検証データが必要 
ただし、別々に用意すると??? 
?検証データを学習に全く使えない 
?検証データが偶然良い(悪い)可能性 
交差検定をしよう!
交差検定(k-fold cross validation ) 
機械学習勉強会 15 2014年7月19日 
5-fold cross validation のイメージ(レコードは最初にランダムに並べ替え済みとする) 
テスト用のレコードセット 
学習用のレコードセット 
学習と精度評価をk回繰り返し、平均値を精度の推定値とする手法 
?検証データを学習に全く使えない 
k-1回は学習に使用 
?検証データが偶然良い(悪い)可能性 
k回評価で偶然性を極力排除
グリッドサーチ(気合) 
機械学習勉強会 16 2014年7月19日 
①データの入手 
②データの前処理 
③手法選択 
④ハイパー 
パラメータ選択 
⑥モデル評価 
精度 
は十分か 
⑤モデル学習 
NO 
YES 
成功! 
手法を 変える 
パラメタを 変える 
良いパラメータって 
どうやって見つけるの? 
グリッドサーチ(気合)です。
グリッドサーチ 
機械学習勉強会17 2014年7月19日 
探索するパラメータの範囲を決めて、適当な間隔で切る。(指数の肩で切ることが多い) 
あとは切ったパラメータを総当りで検証して、最も良いパラメータを見つける 
パラメータ2つの例、この場合は81回学習と検証をする必要 
さらに細かく学習したいときは、指数の底を小さい値にする 
引用: http://xargs.hateblo.jp/entry/2014/02/09/005058
パラメータの探索 
機械学習勉強会 18 2014年7月19日 
①データの入手 
②データの前処理 
③手法選択 
④ハイパー 
パラメータ選択 
⑥モデル評価 
精度 
は十分か 
⑤モデル学習 
NO 
YES 
成功! 
手法を 変える 
パラメタを 変える 
グリッドサーチ 
交差検定 
学習と評価 
まとめると、こんな感じ
パラメータの探索 
機械学習勉強会 19 2014年7月19日 
先ほどのパラメータ(81種)を10-fold 交差検定すると 
810回学習と検証が必要
パラメータの探索 
機械学習勉強会 20 2014年7月19日 
先ほどのパラメータ(81種)を10-fold 交差検定すると 
810回学習と検証が必要 
Q:解けるの?
パラメータの探索 
機械学習勉強会 21 2014年7月19日 
先ほどのパラメータ(81種)を10-fold 交差検定すると 
810回学習と検証が必要 
Q:解けるの? 
A:気合です
パラメータの探索 
機械学習勉強会 22 2014年7月19日 
先ほどのパラメータ(81種)を10-fold 交差検定すると 
810回学習と検証が必要 
Q:本当に解けるの?
パラメータの探索 
機械学習勉強会 23 2014年7月19日 
先ほどのパラメータ(81種)を10-fold 交差検定すると 
810回学習と検証が必要 
Q:本当に解けるの? 
A:完全並列出来る計算なので 
810台サーバがあれば 
最近のGoogleは真顔でこのぐらい言ってきます
パラメータの探索 
機械学習勉強会 24 2014年7月19日 
先ほどのパラメータ(81種)を10-fold 交差検定すると 
810回学習と検証が必要 
Q:クラスタ組めない
パラメータの探索 
機械学習勉強会 25 2014年7月19日 
先ほどのパラメータ(81種)を10-fold 交差検定すると 
810回学習と検証が必要 
Q:クラスタ組めない 
A:弊社のを買って下さい
パラメータの探索 
機械学習勉強会 26 2014年7月19日 
先ほどのパラメータ(81種)を10-fold 交差検定すると 
810回学習と検証が必要 
Q:クラスタ組めない 
A:弊社のを買って下さい 
最近はクラウド上の機械学習も有ります。 http://jp.techcrunch.com/2014/06/17/20140616microsoft-announces-azure-ml- cloud-based-machine-learning-platform-that-can-predict-future-events/
機械学習勉強会 27 2014年7月19日 
これで、今日からデータサイエンティスト
???とは行かない 
機械学習勉強会 28 2014年7月19日 
①データの入手 
②データの前処理 
③手法選択 
④ハイパー 
パラメータ選択 
⑥モデル評価 
精度 
は十分か 
⑤モデル学習 
NO 
YES 
成功! 
手法を 変える 
パラメタを 変える 
適切な手法の選択が 
機械学習で最も重要かつ難しい問題
適切な手法の選択 
機械学習勉強会 29 2014年7月19日 
Q:常に最適な手法ってあるの? 
A:ありません 
Q:どうやったら最適な手法を選べるの? 
A:機械学習を体系的に学び、 
経験を積んで、更に運が必要 
Q:詰んでない? 
A:なんとかするのが、今日の議題
現状ベストアンサー:scikit-learnに任せる 
機械学習勉強会 30 2014年7月19日 
『Scikit-learnにできる事』≒『自分にできること』 
これで最近は問題が無いことが多い http://scikit-learn.org/stable/tutorial/machine_learning_map/index.html
実装の雰囲気 
機械学習勉強会 31 2014年7月19日 
importnumpy 
fromsklearn.cross_validationimportcross_val_score 
#使いたい手法をインポート 
fromsklearn.hogehogeimportsome_machine_learning_method 
for パラメータin (グリッドサーチの探索範囲): 
#手法のインスタンスを生成 
model =some_machine_learning_method(パラメータ) 
#お手軽交差検定 
cv_scores=cross_val_score(model, 説明変数, 目的変数) 
#交差検定の各学習のスコア平均値を計算 
score =numpy.mean(cv_scores) 
これでScikit-learnの大体の手法は、これで使えるはず 
リッジ回帰の例をGithubにあげました https://github.com/anaguma2261/scikit-learn-sample/blob/master/ridge_regression.py
手法の種類 
?Classification(分類) 
–ラベルをデータで学習して、ラベルを予測 
?Regression(回帰) 
–実数値をデータで学習して、実数値を予測 
?Clustering(クラスタリング) 
–データを似ているもの同士を集めて、データの構造を発見 
?DimensionalReduction(次元削減) 
–データの次元を削減して、よりメタな要因を発見 
(主成分分析は次元削減のひとつ) 
–削減した次元をデータにして他の手法を行う 
(次元の呪い回避) 
機械学習勉強会 32 2014年7月19日
Classification(分類) 
?SVM (SVC, LinearSVC) 
–利点 
?汎化性能が高く、少量のデータでもうまく学習出来る事がある 
?カーネルの組み合わせで様々データに対応できる 
–欠点 
?カーネル入れると遅い 
?関数によっては、予測確率で出力できない 
?K-近傍法(NearestNeighbors) 
–利点 
?単純な割に精度が高い 
–欠点 
?予測時にもメモリに学習データを格納する必要がある 
?ランダムフォレスト(RandomForestClassifier) 
–利点 
?精度が高いことが多い 
?並列計算しやすい 
?過学習や、変数のスケールを考えずに、全て変数を入れて学習できる 
–欠点 
?ランダムフォレスト信者になりやすい 
機械学習勉強会 33 2014年7月19日
Classification(分類) 
?確率的勾配法による学習(SGDClassifier) 
–これは手法でなく学習方法 
–データが大きい時に、データを一部づつを見て 
学習の計算をサボって高速化 
–オプションで、SVMやロジスティック回帰が選択可能 
機械学習勉強会 34 2014年7月19日
Regression(回帰) 
機械学習勉強会 35 2014年7月19日 
?重回帰(LinearRegression) 
–利点???速い(パラメータ無し) 
–欠点???Scikit-learnにstepwise法が無いので、使いにくい 
?リッジ回帰(Ridge) 
–利点???ラッソより速い、多重線形性の影響を受けにくい 
–欠点???ラッソに比べて、変数選択力が弱い 
?ラッソ回帰(Lasso) 
–利点???少ない変数でモデルを作ってくれる 
–欠点???リッジよりは遅い、使わない変数があることを仮定している 
?SVR(SVR) 
–利点???カーネルで非線形性を取り込める 
–欠点???カーネルを入れると遅い 
?ランダムフォレスト(RandomForestRegressor) 
–Classificationを参照回帰では予測値が離散になる欠点がある
Clustering(クラスタリング) 
?K-means法(KMeans) 
–利点???速いMiniBatchKMeansは計算をサボってるので更に速い 
–欠点???クラスタ数を最初に与えないといけない 
?階層的クラスタリング(AgglomerativeClustering) 
最近実装されたので表には無い 
–利点???クラスタ数を後から色々変えられる 
–欠点???遅い、大きいデータは階層が表示出来ないことも 
?混合ガウス分布(GMM) 
–利点???各クラスタの所属確率が出る。 
–欠点???正規分布を仮定する 
?MeanShift(MeanShift) 
–使用経験がないのでノーコメント誰か教えて下さい 
機械学習勉強会 36 2014年7月19日
DimensionalReduction(次元削減) 
機械学習勉強会 37 2014年7月19日 
Scikit-learnのフローチャートに語れる手法があまりなかったので、私がよく使う手法を紹介 
?主成分分析(PCA) 
–利点???速い疎行列も扱える 
–欠点???裏で正規分布を仮定 
?非負値行列因子分解(NMF) 
–利点???要因の引き算を許さないことでより特徴を抽出できる事もある 
–欠点???非負行列限定 
その他、LDAやDeep Learningなどなども

More Related Content

What's hot (20)

深层学习の非常に简単な説明
深层学习の非常に简単な説明深层学习の非常に简単な説明
深层学习の非常に简単な説明
Seiichi Uchida
?
失败から学ぶ机械学习応用
失败から学ぶ机械学习応用失败から学ぶ机械学习応用
失败から学ぶ机械学习応用
Hiroyuki Masuda
?
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII
?
ドメイン适応の原理と応用
ドメイン适応の原理と応用ドメイン适応の原理と応用
ドメイン适応の原理と応用
Yoshitaka Ushiku
?
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
?
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
?
画像キャプションの自动生成
画像キャプションの自动生成画像キャプションの自动生成
画像キャプションの自动生成
Yoshitaka Ushiku
?
MixMatch: A Holistic Approach to Semi- Supervised Learning
MixMatch: A Holistic Approach to Semi- Supervised LearningMixMatch: A Holistic Approach to Semi- Supervised Learning
MixMatch: A Holistic Approach to Semi- Supervised Learning
harmonylab
?
强化学习その3
强化学习その3强化学习その3
强化学习その3
nishio
?
机械学习の理论と実践
机械学习の理论と実践机械学习の理论と実践
机械学习の理论と実践
Preferred Networks
?
研究効率化Tips Ver.2
研究効率化Tips Ver.2研究効率化Tips Ver.2
研究効率化Tips Ver.2
cvpaper. challenge
?
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
?
畳み込み尝蝉迟尘
畳み込み尝蝉迟尘畳み込み尝蝉迟尘
畳み込み尝蝉迟尘
tak9029
?
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
?
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Yuya Unno
?
目で见る过学习と正则化
目で见る过学习と正则化目で见る过学习と正则化
目で见る过学习と正则化
y-uti
?
画像処理础滨を用いた异常検知
画像処理础滨を用いた异常検知画像処理础滨を用いた异常検知
画像処理础滨を用いた异常検知
Hideo Terada
?
モデル高速化百选
モデル高速化百选モデル高速化百选
モデル高速化百选
Yusuke Uchida
?
厂贬础笔値の考え方を理解する(木构造编)
厂贬础笔値の考え方を理解する(木构造编)厂贬础笔値の考え方を理解する(木构造编)
厂贬础笔値の考え方を理解する(木构造编)
Kazuyuki Wakasugi
?
数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理
Taiji Suzuki
?
深层学习の非常に简単な説明
深层学习の非常に简単な説明深层学习の非常に简単な説明
深层学习の非常に简単な説明
Seiichi Uchida
?
失败から学ぶ机械学习応用
失败から学ぶ机械学习応用失败から学ぶ机械学习応用
失败から学ぶ机械学习応用
Hiroyuki Masuda
?
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII
?
ドメイン适応の原理と応用
ドメイン适応の原理と応用ドメイン适応の原理と応用
ドメイン适応の原理と応用
Yoshitaka Ushiku
?
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
?
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
?
画像キャプションの自动生成
画像キャプションの自动生成画像キャプションの自动生成
画像キャプションの自动生成
Yoshitaka Ushiku
?
MixMatch: A Holistic Approach to Semi- Supervised Learning
MixMatch: A Holistic Approach to Semi- Supervised LearningMixMatch: A Holistic Approach to Semi- Supervised Learning
MixMatch: A Holistic Approach to Semi- Supervised Learning
harmonylab
?
强化学习その3
强化学习その3强化学习その3
强化学习その3
nishio
?
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
?
畳み込み尝蝉迟尘
畳み込み尝蝉迟尘畳み込み尝蝉迟尘
畳み込み尝蝉迟尘
tak9029
?
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
?
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Yuya Unno
?
目で见る过学习と正则化
目で见る过学习と正则化目で见る过学习と正则化
目で见る过学习と正则化
y-uti
?
画像処理础滨を用いた异常検知
画像処理础滨を用いた异常検知画像処理础滨を用いた异常検知
画像処理础滨を用いた异常検知
Hideo Terada
?
モデル高速化百选
モデル高速化百选モデル高速化百选
モデル高速化百选
Yusuke Uchida
?
厂贬础笔値の考え方を理解する(木构造编)
厂贬础笔値の考え方を理解する(木构造编)厂贬础笔値の考え方を理解する(木构造编)
厂贬础笔値の考え方を理解する(木构造编)
Kazuyuki Wakasugi
?
数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理
Taiji Suzuki
?

Viewers also liked (20)

辫测迟丑辞苍-迟飞颈迟迟别谤を用いた罢飞颈迟迟别谤データ収集
辫测迟丑辞苍-迟飞颈迟迟别谤を用いた罢飞颈迟迟别谤データ収集辫测迟丑辞苍-迟飞颈迟迟别谤を用いた罢飞颈迟迟别谤データ収集
辫测迟丑辞苍-迟飞颈迟迟别谤を用いた罢飞颈迟迟别谤データ収集
Hikaru Takemura
?
10分でわかる笔测迟丑辞苍の开発环境
10分でわかる笔测迟丑辞苍の开発环境10分でわかる笔测迟丑辞苍の开発环境
10分でわかる笔测迟丑辞苍の开発环境
Hisao Soyama
?
「Python言語」はじめの一歩 / First step of Python
「Python言語」はじめの一歩 / First step of Python「Python言語」はじめの一歩 / First step of Python
「Python言語」はじめの一歩 / First step of Python
Takanori Suzuki
?
笔测迟丑辞苍と搁によるテ?ータ分析环境の构筑と机械学习によるテ?ータ认识
笔测迟丑辞苍と搁によるテ?ータ分析环境の构筑と机械学习によるテ?ータ认识笔测迟丑辞苍と搁によるテ?ータ分析环境の构筑と机械学习によるテ?ータ认识
笔测迟丑辞苍と搁によるテ?ータ分析环境の构筑と机械学习によるテ?ータ认识
Katsuhiro Morishita
?
笔测迟丑辞苍による奥别产スクレイピング入门
笔测迟丑辞苍による奥别产スクレイピング入门笔测迟丑辞苍による奥别产スクレイピング入门
笔测迟丑辞苍による奥别产スクレイピング入门
Hironori Sekine
?
野球Hack!~Pythonを用いたデータ分析と可視化 #pyconjp
野球Hack!~Pythonを用いたデータ分析と可視化 #pyconjp野球Hack!~Pythonを用いたデータ分析と可視化 #pyconjp
野球Hack!~Pythonを用いたデータ分析と可視化 #pyconjp
Shinichi Nakagawa
?
Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編
Etsuji Nakai
?
Python東海Vol.5 IPythonをマスターしよう
Python東海Vol.5 IPythonをマスターしようPython東海Vol.5 IPythonをマスターしよう
Python東海Vol.5 IPythonをマスターしよう
Hiroshi Funai
?
搁と笔测迟丑辞苍によるデータ解析入门
搁と笔测迟丑辞苍によるデータ解析入门搁と笔测迟丑辞苍によるデータ解析入门
搁と笔测迟丑辞苍によるデータ解析入门
Atsushi Hayakawa
?
笔测迟丑辞苍で简単ネットワーク分析
笔测迟丑辞苍で简単ネットワーク分析笔测迟丑辞苍で简単ネットワーク分析
笔测迟丑辞苍で简単ネットワーク分析
antibayesian 俺がS式だ
?
蝉肠颈办颈迟-濒别补谤苍を用いた机械学习チュートリアル
蝉肠颈办颈迟-濒别补谤苍を用いた机械学习チュートリアル蝉肠颈办颈迟-濒别补谤苍を用いた机械学习チュートリアル
蝉肠颈办颈迟-濒别补谤苍を用いた机械学习チュートリアル
敦志 金谷
?
Gensim
GensimGensim
Gensim
saireya _
?
Python入門 : 4日間コース社内トレーニング
Python入門 : 4日間コース社内トレーニングPython入門 : 4日間コース社内トレーニング
Python入門 : 4日間コース社内トレーニング
Yuichi Ito
?
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
Ken'ichi Matsui
?
统计学の基础の基础
统计学の基础の基础统计学の基础の基础
统计学の基础の基础
Ken'ichi Matsui
?
EAGLE on PCB Design (EAGLEを使った回路?パターン設計)
EAGLE on PCB Design (EAGLEを使った回路?パターン設計)EAGLE on PCB Design (EAGLEを使った回路?パターン設計)
EAGLE on PCB Design (EAGLEを使った回路?パターン設計)
Katsuhiro Morishita
?
回路设计者からみた电子部品
回路设计者からみた电子部品回路设计者からみた电子部品
回路设计者からみた电子部品
Tsuyoshi Horigome
?
03 「重回帰分析」の入門
03 「重回帰分析」の入門03 「重回帰分析」の入門
03 「重回帰分析」の入門
Shuhei Ichikawa
?
S07 Azure バックアップを利用したオンプレミス Windows Server のバックアップ
S07 Azure バックアップを利用したオンプレミス Windows Server のバックアップS07 Azure バックアップを利用したオンプレミス Windows Server のバックアップ
S07 Azure バックアップを利用したオンプレミス Windows Server のバックアップ
Microsoft Azure Japan
?
DLL Community Update 10月版
DLL Community Update 10月版DLL Community Update 10月版
DLL Community Update 10月版
Hirono Jumpei
?
辫测迟丑辞苍-迟飞颈迟迟别谤を用いた罢飞颈迟迟别谤データ収集
辫测迟丑辞苍-迟飞颈迟迟别谤を用いた罢飞颈迟迟别谤データ収集辫测迟丑辞苍-迟飞颈迟迟别谤を用いた罢飞颈迟迟别谤データ収集
辫测迟丑辞苍-迟飞颈迟迟别谤を用いた罢飞颈迟迟别谤データ収集
Hikaru Takemura
?
10分でわかる笔测迟丑辞苍の开発环境
10分でわかる笔测迟丑辞苍の开発环境10分でわかる笔测迟丑辞苍の开発环境
10分でわかる笔测迟丑辞苍の开発环境
Hisao Soyama
?
「Python言語」はじめの一歩 / First step of Python
「Python言語」はじめの一歩 / First step of Python「Python言語」はじめの一歩 / First step of Python
「Python言語」はじめの一歩 / First step of Python
Takanori Suzuki
?
笔测迟丑辞苍と搁によるテ?ータ分析环境の构筑と机械学习によるテ?ータ认识
笔测迟丑辞苍と搁によるテ?ータ分析环境の构筑と机械学习によるテ?ータ认识笔测迟丑辞苍と搁によるテ?ータ分析环境の构筑と机械学习によるテ?ータ认识
笔测迟丑辞苍と搁によるテ?ータ分析环境の构筑と机械学习によるテ?ータ认识
Katsuhiro Morishita
?
笔测迟丑辞苍による奥别产スクレイピング入门
笔测迟丑辞苍による奥别产スクレイピング入门笔测迟丑辞苍による奥别产スクレイピング入门
笔测迟丑辞苍による奥别产スクレイピング入门
Hironori Sekine
?
野球Hack!~Pythonを用いたデータ分析と可視化 #pyconjp
野球Hack!~Pythonを用いたデータ分析と可視化 #pyconjp野球Hack!~Pythonを用いたデータ分析と可視化 #pyconjp
野球Hack!~Pythonを用いたデータ分析と可視化 #pyconjp
Shinichi Nakagawa
?
Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編
Etsuji Nakai
?
Python東海Vol.5 IPythonをマスターしよう
Python東海Vol.5 IPythonをマスターしようPython東海Vol.5 IPythonをマスターしよう
Python東海Vol.5 IPythonをマスターしよう
Hiroshi Funai
?
搁と笔测迟丑辞苍によるデータ解析入门
搁と笔测迟丑辞苍によるデータ解析入门搁と笔测迟丑辞苍によるデータ解析入门
搁と笔测迟丑辞苍によるデータ解析入门
Atsushi Hayakawa
?
笔测迟丑辞苍で简単ネットワーク分析
笔测迟丑辞苍で简単ネットワーク分析笔测迟丑辞苍で简単ネットワーク分析
笔测迟丑辞苍で简単ネットワーク分析
antibayesian 俺がS式だ
?
蝉肠颈办颈迟-濒别补谤苍を用いた机械学习チュートリアル
蝉肠颈办颈迟-濒别补谤苍を用いた机械学习チュートリアル蝉肠颈办颈迟-濒别补谤苍を用いた机械学习チュートリアル
蝉肠颈办颈迟-濒别补谤苍を用いた机械学习チュートリアル
敦志 金谷
?
Python入門 : 4日間コース社内トレーニング
Python入門 : 4日間コース社内トレーニングPython入門 : 4日間コース社内トレーニング
Python入門 : 4日間コース社内トレーニング
Yuichi Ito
?
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
Ken'ichi Matsui
?
统计学の基础の基础
统计学の基础の基础统计学の基础の基础
统计学の基础の基础
Ken'ichi Matsui
?
EAGLE on PCB Design (EAGLEを使った回路?パターン設計)
EAGLE on PCB Design (EAGLEを使った回路?パターン設計)EAGLE on PCB Design (EAGLEを使った回路?パターン設計)
EAGLE on PCB Design (EAGLEを使った回路?パターン設計)
Katsuhiro Morishita
?
回路设计者からみた电子部品
回路设计者からみた电子部品回路设计者からみた电子部品
回路设计者からみた电子部品
Tsuyoshi Horigome
?
03 「重回帰分析」の入門
03 「重回帰分析」の入門03 「重回帰分析」の入門
03 「重回帰分析」の入門
Shuhei Ichikawa
?
S07 Azure バックアップを利用したオンプレミス Windows Server のバックアップ
S07 Azure バックアップを利用したオンプレミス Windows Server のバックアップS07 Azure バックアップを利用したオンプレミス Windows Server のバックアップ
S07 Azure バックアップを利用したオンプレミス Windows Server のバックアップ
Microsoft Azure Japan
?
DLL Community Update 10月版
DLL Community Update 10月版DLL Community Update 10月版
DLL Community Update 10月版
Hirono Jumpei
?

Similar to Scikit learnで学ぶ機械学習入門 (20)

TensorFlow User Group #1
TensorFlow User Group #1TensorFlow User Group #1
TensorFlow User Group #1
陽平 山口
?
蝉尘补谤迟迟谤补诲别勉强会
蝉尘补谤迟迟谤补诲别勉强会蝉尘补谤迟迟谤补诲别勉强会
蝉尘补谤迟迟谤补诲别勉强会
taishinmurase
?
分析?モニタリングのために作文活动を测定するシステムの设计
分析?モニタリングのために作文活动を测定するシステムの设计分析?モニタリングのために作文活动を测定するシステムの设计
分析?モニタリングのために作文活动を测定するシステムの设计
yamahige
?
Machine Learning Nagoya 20161015
Machine Learning Nagoya 20161015Machine Learning Nagoya 20161015
Machine Learning Nagoya 20161015
陽平 山口
?
Deep Learningを用いたロボット制御
Deep Learningを用いたロボット制御Deep Learningを用いたロボット制御
Deep Learningを用いたロボット制御
Ryosuke Okuta
?
Imitation learning for robotics 勉強会資料(20240701)
Imitation learning for robotics 勉強会資料(20240701)Imitation learning for robotics 勉強会資料(20240701)
Imitation learning for robotics 勉強会資料(20240701)
Natsutani Minoru
?
MANABIYA Machine Learning Hands-On
MANABIYA Machine Learning Hands-OnMANABIYA Machine Learning Hands-On
MANABIYA Machine Learning Hands-On
陽平 山口
?
20140711 evf2014 hadoop_recommendmachinelearning
20140711 evf2014 hadoop_recommendmachinelearning20140711 evf2014 hadoop_recommendmachinelearning
20140711 evf2014 hadoop_recommendmachinelearning
Takumi Yoshida
?
アジャイルソフトウェア开発の道具箱
アジャイルソフトウェア开発の道具箱アジャイルソフトウェア开発の道具箱
アジャイルソフトウェア开発の道具箱
Koichi ITO
?
自动チューニングとビックデータ:机械学习の适用の可能性
自动チューニングとビックデータ:机械学习の适用の可能性自动チューニングとビックデータ:机械学习の适用の可能性
自动チューニングとビックデータ:机械学习の适用の可能性
Takahiro Katagiri
?
1時間で分かるSTA (Software Test Automation) #stac2014
1時間で分かるSTA (Software Test Automation) #stac20141時間で分かるSTA (Software Test Automation) #stac2014
1時間で分かるSTA (Software Test Automation) #stac2014
Kazuhiro Suzuki
?
初めて机械学习を勉强しました
初めて机械学习を勉强しました初めて机械学习を勉强しました
初めて机械学习を勉强しました
雄哉 吉田
?
機械学習のマイクロサーヒ?スて?の運用の実験について #mlops
機械学習のマイクロサーヒ?スて?の運用の実験について #mlops機械学習のマイクロサーヒ?スて?の運用の実験について #mlops
機械学習のマイクロサーヒ?スて?の運用の実験について #mlops
Hiroaki Kudo
?
Scikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行うScikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行う
Arata Honda
?
テ?ータヒ?シ?ュアライセ?ーションもくもく会
テ?ータヒ?シ?ュアライセ?ーションもくもく会テ?ータヒ?シ?ュアライセ?ーションもくもく会
テ?ータヒ?シ?ュアライセ?ーションもくもく会
dsuke Takaoka
?
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
Preferred Networks
?
贰濒补蝉迟颈肠蝉别补谤肠丑と机械学习を実际に连携させる
贰濒补蝉迟颈肠蝉别补谤肠丑と机械学习を実际に连携させる贰濒补蝉迟颈肠蝉别补谤肠丑と机械学习を実际に连携させる
贰濒补蝉迟颈肠蝉别补谤肠丑と机械学习を実际に连携させる
nobu_k
?
High performance python computing for data science
High performance python computing for data scienceHigh performance python computing for data science
High performance python computing for data science
Takami Sato
?
机械学习を始める前の「学习」
机械学习を始める前の「学习」机械学习を始める前の「学习」
机械学习を始める前の「学习」
Serverworks Co.,Ltd.
?
1028 TECH & BRIDGE MEETING
1028 TECH & BRIDGE MEETING1028 TECH & BRIDGE MEETING
1028 TECH & BRIDGE MEETING
健司 亀本
?
TensorFlow User Group #1
TensorFlow User Group #1TensorFlow User Group #1
TensorFlow User Group #1
陽平 山口
?
蝉尘补谤迟迟谤补诲别勉强会
蝉尘补谤迟迟谤补诲别勉强会蝉尘补谤迟迟谤补诲别勉强会
蝉尘补谤迟迟谤补诲别勉强会
taishinmurase
?
分析?モニタリングのために作文活动を测定するシステムの设计
分析?モニタリングのために作文活动を测定するシステムの设计分析?モニタリングのために作文活动を测定するシステムの设计
分析?モニタリングのために作文活动を测定するシステムの设计
yamahige
?
Machine Learning Nagoya 20161015
Machine Learning Nagoya 20161015Machine Learning Nagoya 20161015
Machine Learning Nagoya 20161015
陽平 山口
?
Deep Learningを用いたロボット制御
Deep Learningを用いたロボット制御Deep Learningを用いたロボット制御
Deep Learningを用いたロボット制御
Ryosuke Okuta
?
Imitation learning for robotics 勉強会資料(20240701)
Imitation learning for robotics 勉強会資料(20240701)Imitation learning for robotics 勉強会資料(20240701)
Imitation learning for robotics 勉強会資料(20240701)
Natsutani Minoru
?
MANABIYA Machine Learning Hands-On
MANABIYA Machine Learning Hands-OnMANABIYA Machine Learning Hands-On
MANABIYA Machine Learning Hands-On
陽平 山口
?
20140711 evf2014 hadoop_recommendmachinelearning
20140711 evf2014 hadoop_recommendmachinelearning20140711 evf2014 hadoop_recommendmachinelearning
20140711 evf2014 hadoop_recommendmachinelearning
Takumi Yoshida
?
アジャイルソフトウェア开発の道具箱
アジャイルソフトウェア开発の道具箱アジャイルソフトウェア开発の道具箱
アジャイルソフトウェア开発の道具箱
Koichi ITO
?
自动チューニングとビックデータ:机械学习の适用の可能性
自动チューニングとビックデータ:机械学习の适用の可能性自动チューニングとビックデータ:机械学习の适用の可能性
自动チューニングとビックデータ:机械学习の适用の可能性
Takahiro Katagiri
?
1時間で分かるSTA (Software Test Automation) #stac2014
1時間で分かるSTA (Software Test Automation) #stac20141時間で分かるSTA (Software Test Automation) #stac2014
1時間で分かるSTA (Software Test Automation) #stac2014
Kazuhiro Suzuki
?
初めて机械学习を勉强しました
初めて机械学习を勉强しました初めて机械学习を勉强しました
初めて机械学习を勉强しました
雄哉 吉田
?
機械学習のマイクロサーヒ?スて?の運用の実験について #mlops
機械学習のマイクロサーヒ?スて?の運用の実験について #mlops機械学習のマイクロサーヒ?スて?の運用の実験について #mlops
機械学習のマイクロサーヒ?スて?の運用の実験について #mlops
Hiroaki Kudo
?
Scikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行うScikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行う
Arata Honda
?
テ?ータヒ?シ?ュアライセ?ーションもくもく会
テ?ータヒ?シ?ュアライセ?ーションもくもく会テ?ータヒ?シ?ュアライセ?ーションもくもく会
テ?ータヒ?シ?ュアライセ?ーションもくもく会
dsuke Takaoka
?
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
Preferred Networks
?
贰濒补蝉迟颈肠蝉别补谤肠丑と机械学习を実际に连携させる
贰濒补蝉迟颈肠蝉别补谤肠丑と机械学习を実际に连携させる贰濒补蝉迟颈肠蝉别补谤肠丑と机械学习を実际に连携させる
贰濒补蝉迟颈肠蝉别补谤肠丑と机械学习を実际に连携させる
nobu_k
?
High performance python computing for data science
High performance python computing for data scienceHigh performance python computing for data science
High performance python computing for data science
Takami Sato
?
机械学习を始める前の「学习」
机械学习を始める前の「学习」机械学习を始める前の「学习」
机械学习を始める前の「学习」
Serverworks Co.,Ltd.
?
1028 TECH & BRIDGE MEETING
1028 TECH & BRIDGE MEETING1028 TECH & BRIDGE MEETING
1028 TECH & BRIDGE MEETING
健司 亀本
?

More from Takami Sato (12)

Kaggle Santa 2019で学ぶMIP最適化入門
Kaggle Santa 2019で学ぶMIP最適化入門Kaggle Santa 2019で学ぶMIP最適化入門
Kaggle Santa 2019で学ぶMIP最適化入門
Takami Sato
?
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision TreeNIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
Takami Sato
?
Kaggle&競プロ紹介 in 中田研究室
Kaggle&競プロ紹介 in 中田研究室Kaggle&競プロ紹介 in 中田研究室
Kaggle&競プロ紹介 in 中田研究室
Takami Sato
?
蚕耻辞谤补コンヘ?参加记録
蚕耻辞谤补コンヘ?参加记録蚕耻辞谤补コンヘ?参加记録
蚕耻辞谤补コンヘ?参加记録
Takami Sato
?
Data Science Bowl 2017 Winning Solutions Survey
Data Science Bowl 2017Winning Solutions SurveyData Science Bowl 2017Winning Solutions Survey
Data Science Bowl 2017 Winning Solutions Survey
Takami Sato
?
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
Takami Sato
?
Overview of tree algorithms from decision tree to xgboost
Overview of tree algorithms from decision tree to xgboostOverview of tree algorithms from decision tree to xgboost
Overview of tree algorithms from decision tree to xgboost
Takami Sato
?
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entriesIcml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Takami Sato
?
础础をつくろう!础础をつくろう!
础础をつくろう!
Takami Sato
?
最适化超入门
最适化超入门最适化超入门
最适化超入门
Takami Sato
?
奥辞谤诲2惫别肠で大谷翔平の二刀流论争に终止符を打つ!
奥辞谤诲2惫别肠で大谷翔平の二刀流论争に终止符を打つ!奥辞谤诲2惫别肠で大谷翔平の二刀流论争に终止符を打つ!
奥辞谤诲2惫别肠で大谷翔平の二刀流论争に终止符を打つ!
Takami Sato
?
セクシー女优で学ぶ画像分类入门
セクシー女优で学ぶ画像分类入门セクシー女优で学ぶ画像分类入门
セクシー女优で学ぶ画像分类入门
Takami Sato
?
Kaggle Santa 2019で学ぶMIP最適化入門
Kaggle Santa 2019で学ぶMIP最適化入門Kaggle Santa 2019で学ぶMIP最適化入門
Kaggle Santa 2019で学ぶMIP最適化入門
Takami Sato
?
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision TreeNIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
Takami Sato
?
Kaggle&競プロ紹介 in 中田研究室
Kaggle&競プロ紹介 in 中田研究室Kaggle&競プロ紹介 in 中田研究室
Kaggle&競プロ紹介 in 中田研究室
Takami Sato
?
蚕耻辞谤补コンヘ?参加记録
蚕耻辞谤补コンヘ?参加记録蚕耻辞谤补コンヘ?参加记録
蚕耻辞谤补コンヘ?参加记録
Takami Sato
?
Data Science Bowl 2017 Winning Solutions Survey
Data Science Bowl 2017Winning Solutions SurveyData Science Bowl 2017Winning Solutions Survey
Data Science Bowl 2017 Winning Solutions Survey
Takami Sato
?
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
Takami Sato
?
Overview of tree algorithms from decision tree to xgboost
Overview of tree algorithms from decision tree to xgboostOverview of tree algorithms from decision tree to xgboost
Overview of tree algorithms from decision tree to xgboost
Takami Sato
?
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entriesIcml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Takami Sato
?
础础をつくろう!础础をつくろう!
础础をつくろう!
Takami Sato
?
奥辞谤诲2惫别肠で大谷翔平の二刀流论争に终止符を打つ!
奥辞谤诲2惫别肠で大谷翔平の二刀流论争に终止符を打つ!奥辞谤诲2惫别肠で大谷翔平の二刀流论争に终止符を打つ!
奥辞谤诲2惫别肠で大谷翔平の二刀流论争に终止符を打つ!
Takami Sato
?
セクシー女优で学ぶ画像分类入门
セクシー女优で学ぶ画像分类入门セクシー女优で学ぶ画像分类入门
セクシー女优で学ぶ画像分类入门
Takami Sato
?

Recently uploaded (6)

量子リザバソフトウェア冲时系列データ(农业?核融合?需要予测)効果検証冲导入による成果
量子リザバソフトウェア冲时系列データ(农业?核融合?需要予测)効果検証冲导入による成果量子リザバソフトウェア冲时系列データ(农业?核融合?需要予测)効果検証冲导入による成果
量子リザバソフトウェア冲时系列データ(农业?核融合?需要予测)効果検証冲导入による成果
info819904
?
カスタム厂尝惭「贬补尘蝉迟别谤」冲軽量でセキュアな専用言语モデル冲础滨エージェント冲チャットボット冲マッチングアプリ构筑のコアパッケージ
カスタム厂尝惭「贬补尘蝉迟别谤」冲軽量でセキュアな専用言语モデル冲础滨エージェント冲チャットボット冲マッチングアプリ构筑のコアパッケージカスタム厂尝惭「贬补尘蝉迟别谤」冲軽量でセキュアな専用言语モデル冲础滨エージェント冲チャットボット冲マッチングアプリ构筑のコアパッケージ
カスタム厂尝惭「贬补尘蝉迟别谤」冲軽量でセキュアな専用言语モデル冲础滨エージェント冲チャットボット冲マッチングアプリ构筑のコアパッケージ
info819904
?
鲍-22プログラミング?コンテスト提出资料「作品説明动画」制作のポイントをご绍介
鲍-22プログラミング?コンテスト提出资料「作品説明动画」制作のポイントをご绍介鲍-22プログラミング?コンテスト提出资料「作品説明动画」制作のポイントをご绍介
鲍-22プログラミング?コンテスト提出资料「作品説明动画」制作のポイントをご绍介
鲍-22プログラミング?コンテスト运営事务局
?
松下光范「街歩き型ストーリーリーダーの実施」,もうひとつの十叁未来会议(有识者编)
松下光范「街歩き型ストーリーリーダーの実施」,もうひとつの十叁未来会议(有识者编)松下光范「街歩き型ストーリーリーダーの実施」,もうひとつの十叁未来会议(有识者编)
松下光范「街歩き型ストーリーリーダーの実施」,もうひとつの十叁未来会议(有识者编)
Matsushita Laboratory
?
2019飞冲东京大学大学院茂木研究室冲学生研究员杉田翔栄冲搁罢贰最终発表会スライト?.辫诲蹿
2019飞冲东京大学大学院茂木研究室冲学生研究员杉田翔栄冲搁罢贰最终発表会スライト?.辫诲蹿2019飞冲东京大学大学院茂木研究室冲学生研究员杉田翔栄冲搁罢贰最终発表会スライト?.辫诲蹿
2019飞冲东京大学大学院茂木研究室冲学生研究员杉田翔栄冲搁罢贰最终発表会スライト?.辫诲蹿
翔栄 杉田
?
自由に移动する复数の?々に异なる映像を提?するテ?ィスフ?レイシステムについての基础検讨
自由に移动する复数の?々に异なる映像を提?するテ?ィスフ?レイシステムについての基础検讨自由に移动する复数の?々に异なる映像を提?するテ?ィスフ?レイシステムについての基础検讨
自由に移动する复数の?々に异なる映像を提?するテ?ィスフ?レイシステムについての基础検讨
sugiuralab
?
量子リザバソフトウェア冲时系列データ(农业?核融合?需要予测)効果検証冲导入による成果
量子リザバソフトウェア冲时系列データ(农业?核融合?需要予测)効果検証冲导入による成果量子リザバソフトウェア冲时系列データ(农业?核融合?需要予测)効果検証冲导入による成果
量子リザバソフトウェア冲时系列データ(农业?核融合?需要予测)効果検証冲导入による成果
info819904
?
カスタム厂尝惭「贬补尘蝉迟别谤」冲軽量でセキュアな専用言语モデル冲础滨エージェント冲チャットボット冲マッチングアプリ构筑のコアパッケージ
カスタム厂尝惭「贬补尘蝉迟别谤」冲軽量でセキュアな専用言语モデル冲础滨エージェント冲チャットボット冲マッチングアプリ构筑のコアパッケージカスタム厂尝惭「贬补尘蝉迟别谤」冲軽量でセキュアな専用言语モデル冲础滨エージェント冲チャットボット冲マッチングアプリ构筑のコアパッケージ
カスタム厂尝惭「贬补尘蝉迟别谤」冲軽量でセキュアな専用言语モデル冲础滨エージェント冲チャットボット冲マッチングアプリ构筑のコアパッケージ
info819904
?
松下光范「街歩き型ストーリーリーダーの実施」,もうひとつの十叁未来会议(有识者编)
松下光范「街歩き型ストーリーリーダーの実施」,もうひとつの十叁未来会议(有识者编)松下光范「街歩き型ストーリーリーダーの実施」,もうひとつの十叁未来会议(有识者编)
松下光范「街歩き型ストーリーリーダーの実施」,もうひとつの十叁未来会议(有识者编)
Matsushita Laboratory
?
2019飞冲东京大学大学院茂木研究室冲学生研究员杉田翔栄冲搁罢贰最终発表会スライト?.辫诲蹿
2019飞冲东京大学大学院茂木研究室冲学生研究员杉田翔栄冲搁罢贰最终発表会スライト?.辫诲蹿2019飞冲东京大学大学院茂木研究室冲学生研究员杉田翔栄冲搁罢贰最终発表会スライト?.辫诲蹿
2019飞冲东京大学大学院茂木研究室冲学生研究员杉田翔栄冲搁罢贰最终発表会スライト?.辫诲蹿
翔栄 杉田
?
自由に移动する复数の?々に异なる映像を提?するテ?ィスフ?レイシステムについての基础検讨
自由に移动する复数の?々に异なる映像を提?するテ?ィスフ?レイシステムについての基础検讨自由に移动する复数の?々に异なる映像を提?するテ?ィスフ?レイシステムについての基础検讨
自由に移动する复数の?々に异なる映像を提?するテ?ィスフ?レイシステムについての基础検讨
sugiuralab
?

Scikit learnで学ぶ機械学習入門

  • 1. Scikit-learnで学ぶ機械学習入門 佐藤貴海 @tkm2261 2014/07/19@機械学習勉強会 機械学習勉強会 1 2014年7月19日
  • 2. 今日の目的 ?機械学習の雰囲気感じる –『こいつ???動くぞ!』くらい –わかりやすさ>>>厳密性 –理論勉強するのも、威力を知ったあとの方が捗る ?深入りはしない –紹介量を優先 機械学習勉強会 2 2014年7月19日
  • 3. 自己紹介 専門:経営工学/最適化 所属:(株)ブレインパッド入社2年目 業務:データ分析全般(何でも屋さん) 機械学習との出会い: ?研究が現在実用性皆無の半正定値計画問題 ?精神の逃げ道として機械学習を趣味で始める ?研究が詰んで、趣味が本職に 趣味で始めたので言語、画像など幅広く遊んでます この前、多摩川のほとりで1人燻製してきました。 機械学習勉強会 3 2014年7月19日
  • 4. Scikit-learnってなに? ?Pythonの機械学習ライブラリ –無料?有料含めて、コレほど充実したライブラリは他にない –ほぼデファクトスタンダード状態(と思っている) 機械学習勉強会 4 2014年7月19日 利点(対R) ?高速 ?省メモリ ?Pythonなので言語基盤がしっかりしている ?検索しやすい 欠点(対R) ?カテゴリカル変数の処理(factor型は無い) ?環境構築が面倒
  • 5. 環境構築 ?よくわからない人 ?Anacondaを入れましょう Python導入、環境変数設定、Scikit-learn導入、IDE導入全部やってくれます 機械学習勉強会 5 2014年7月19日 http://continuum.io/downloads
  • 6. 環境構築 機械学習勉強会 6 2014年7月19日 ?こだわりたい人 ?Windowsユーザ ?GohlkeのページでMKLビルドのNumpyを入れましょう 保証はないので、自己責任で
  • 7. 環境構築 機械学習勉強会 7 2014年7月19日 ?こだわりたい人 ?Linuxユーザ 非商用個人ならインテルコンパイラとMKLが無料で使える それ以外は、OpenBLASが高速 インストール方法はGithubにあげました OpenBLASはmultiprocessingとの相性が悪いので要注意 WindowsでOpenBLASは鬼門なのでやめましょう https://software.intel.com/en-us/non-commercial-software-development インストール方法はコチラ https://software.intel.com/en-us/articles/numpyscipy-with-intel-mkl?language=eshttp://gehrcke.de/2014/02/building-numpy-and-scipy-with-intel-compilers-and- intel-mkl-on-a-64-bit-machine/ https://github.com/anaguma2261/setup_python_with_openblas
  • 8. 機械学習勉強会 8 2014年7月19日 脱線:BLASとLAPACK 数値計算をやると裏で必ずお世話になるのがこの2つ ?Basic Linear Algebra Subprograms (BLAS) -線型代数計算を実行するライブラリの標準仕様 ?Linear Algebra PACKage(LAPACK) -BLAS上に構築された固有値計算などの高位な線形代数計算ライブラリ 現在様々なBLAS実装が公開されている ?Intel MKL…MATLABはコレ有償すごく速い?高い?安心! ?ATLAS…自動チューンのBLASBSD速い ?GotoBLAS2…後藤和茂氏作成のBLASBSDかなり速い開発停止 ?OpenBLAS…xianyi氏によるGotoBLAS2の後継BLASBSDすごく速い (MATLAB, R, Octave, numpy…) 計算が遅い時、4つのどれかの導入すると幸せになれるかも? ???
  • 9. 脱線:BLASの比較 機械学習勉強会 9 2014年7月19日 引用:R BLAS: GotoBLAS2 vsOpenBLASvsMKL (http://blog.felixriedel.com/2012/11/r-blas-gotoblas2-vs-openblas-vs-mkl/) 実行コード A = matrix(rnorm(n*n),n,n) A %*% A solve(A) svd(A) RのデフォルトBLASから何倍早くなったか検証してるサイトがあったので紹介 ?最大で11倍ほど高速化 ?MKLが基本的に一番高速 ?OpenBLASも所によってはMKLを上回ることも ?マルチスレッド環境では導入は必須かも
  • 10. 機械学習勉強会 10 2014年7月19日 Scikit-learnの前に機械学習の流れもおさらい 脱線してますが、
  • 11. 機械学習の流れ 機械学習勉強会 11 2014年7月19日 分析対象のデータを集める。趣味でやる場合には、結構重要 最も苦痛を伴う作業。機械学習モデルに渡せる方に整形する カテゴリカル変数のダミー変数化、欠損値穴埋め、変数の作成等 問題に合わせて適当な手法を選択する。 リッジ回帰、SVM、RandomForest、決定木、k-meansなど 手法のハイパーパラメータを選択する。 リッジ回帰の正則化項、決定木の木の深さなど 尤度最大化などで学習。Scikit-learnがやってくれるので割愛 問題に合わせて適当な評価尺度を選択する。 精度、F値、平均二乗誤差、AUCなど ①データの入手 ②データの前処理 ③手法選択 ④ハイパー パラメータ選択 ⑥モデル評価 精度 は十分か ⑤モデル学習 NO YES 成功! 手法を 変える パラメタを 変える
  • 12. データを集めて?前処理する 機械学習勉強会 12 2014年7月19日 ①データの入手 ②データの前処理 ③手法選択 ④ハイパー パラメータ選択 ⑥モデル評価 精度 は十分か ⑤モデル学習 NO YES 成功! 手法を 変える パラメタを 変える 趣味でやると、手法は知ってても、 データが無いことが多数 いくつか、データのある場所を紹介 ◆練習用データ ?Kagglehttps://www.kaggle.com/ ?UCI Machine Learning Repository http://archive.ics.uci.edu/ml/ ◆テキストデータ(日本語) ?2ch ?TwitterStreamingAPI ?Wikipediaダンプデータ ?青空文庫 前処理はひたすら頑張って下さい。 ここでどんな変数を作るかで、かなり(一番?)利きます Scikit-learnやpandasに便利関数アリ
  • 13. パラメータの探索 機械学習勉強会 13 2014年7月19日 ①データの入手 ②データの前処理 ③手法選択 ④ハイパー パラメータ選択 ④モデル評価 精度 は十分か ④モデル学習 NO YES 成功! 手法を 変える パラメタを 変える この一連の流れ (良いパラメータの発見)を効率良く行う方法が ?交差検定(Cross-validation ) ?グリッドサーチ どちらもscikit-learnにあります
  • 14. 交差検定(k-fold cross validation ) 機械学習勉強会 14 2014年7月19日 ①データの入手 ②データの前処理 ③手法選択 ④ハイパー パラメータ選択 ⑥モデル評価 精度 は十分か ⑤モデル学習 NO YES 成功! 手法を 変える パラメタを 変える 学習と評価には、学習データと検証データが必要 ただし、別々に用意すると??? ?検証データを学習に全く使えない ?検証データが偶然良い(悪い)可能性 交差検定をしよう!
  • 15. 交差検定(k-fold cross validation ) 機械学習勉強会 15 2014年7月19日 5-fold cross validation のイメージ(レコードは最初にランダムに並べ替え済みとする) テスト用のレコードセット 学習用のレコードセット 学習と精度評価をk回繰り返し、平均値を精度の推定値とする手法 ?検証データを学習に全く使えない k-1回は学習に使用 ?検証データが偶然良い(悪い)可能性 k回評価で偶然性を極力排除
  • 16. グリッドサーチ(気合) 機械学習勉強会 16 2014年7月19日 ①データの入手 ②データの前処理 ③手法選択 ④ハイパー パラメータ選択 ⑥モデル評価 精度 は十分か ⑤モデル学習 NO YES 成功! 手法を 変える パラメタを 変える 良いパラメータって どうやって見つけるの? グリッドサーチ(気合)です。
  • 17. グリッドサーチ 機械学習勉強会17 2014年7月19日 探索するパラメータの範囲を決めて、適当な間隔で切る。(指数の肩で切ることが多い) あとは切ったパラメータを総当りで検証して、最も良いパラメータを見つける パラメータ2つの例、この場合は81回学習と検証をする必要 さらに細かく学習したいときは、指数の底を小さい値にする 引用: http://xargs.hateblo.jp/entry/2014/02/09/005058
  • 18. パラメータの探索 機械学習勉強会 18 2014年7月19日 ①データの入手 ②データの前処理 ③手法選択 ④ハイパー パラメータ選択 ⑥モデル評価 精度 は十分か ⑤モデル学習 NO YES 成功! 手法を 変える パラメタを 変える グリッドサーチ 交差検定 学習と評価 まとめると、こんな感じ
  • 19. パラメータの探索 機械学習勉強会 19 2014年7月19日 先ほどのパラメータ(81種)を10-fold 交差検定すると 810回学習と検証が必要
  • 20. パラメータの探索 機械学習勉強会 20 2014年7月19日 先ほどのパラメータ(81種)を10-fold 交差検定すると 810回学習と検証が必要 Q:解けるの?
  • 21. パラメータの探索 機械学習勉強会 21 2014年7月19日 先ほどのパラメータ(81種)を10-fold 交差検定すると 810回学習と検証が必要 Q:解けるの? A:気合です
  • 22. パラメータの探索 機械学習勉強会 22 2014年7月19日 先ほどのパラメータ(81種)を10-fold 交差検定すると 810回学習と検証が必要 Q:本当に解けるの?
  • 23. パラメータの探索 機械学習勉強会 23 2014年7月19日 先ほどのパラメータ(81種)を10-fold 交差検定すると 810回学習と検証が必要 Q:本当に解けるの? A:完全並列出来る計算なので 810台サーバがあれば 最近のGoogleは真顔でこのぐらい言ってきます
  • 24. パラメータの探索 機械学習勉強会 24 2014年7月19日 先ほどのパラメータ(81種)を10-fold 交差検定すると 810回学習と検証が必要 Q:クラスタ組めない
  • 25. パラメータの探索 機械学習勉強会 25 2014年7月19日 先ほどのパラメータ(81種)を10-fold 交差検定すると 810回学習と検証が必要 Q:クラスタ組めない A:弊社のを買って下さい
  • 26. パラメータの探索 機械学習勉強会 26 2014年7月19日 先ほどのパラメータ(81種)を10-fold 交差検定すると 810回学習と検証が必要 Q:クラスタ組めない A:弊社のを買って下さい 最近はクラウド上の機械学習も有ります。 http://jp.techcrunch.com/2014/06/17/20140616microsoft-announces-azure-ml- cloud-based-machine-learning-platform-that-can-predict-future-events/
  • 27. 機械学習勉強会 27 2014年7月19日 これで、今日からデータサイエンティスト
  • 28. ???とは行かない 機械学習勉強会 28 2014年7月19日 ①データの入手 ②データの前処理 ③手法選択 ④ハイパー パラメータ選択 ⑥モデル評価 精度 は十分か ⑤モデル学習 NO YES 成功! 手法を 変える パラメタを 変える 適切な手法の選択が 機械学習で最も重要かつ難しい問題
  • 29. 適切な手法の選択 機械学習勉強会 29 2014年7月19日 Q:常に最適な手法ってあるの? A:ありません Q:どうやったら最適な手法を選べるの? A:機械学習を体系的に学び、 経験を積んで、更に運が必要 Q:詰んでない? A:なんとかするのが、今日の議題
  • 30. 現状ベストアンサー:scikit-learnに任せる 機械学習勉強会 30 2014年7月19日 『Scikit-learnにできる事』≒『自分にできること』 これで最近は問題が無いことが多い http://scikit-learn.org/stable/tutorial/machine_learning_map/index.html
  • 31. 実装の雰囲気 機械学習勉強会 31 2014年7月19日 importnumpy fromsklearn.cross_validationimportcross_val_score #使いたい手法をインポート fromsklearn.hogehogeimportsome_machine_learning_method for パラメータin (グリッドサーチの探索範囲): #手法のインスタンスを生成 model =some_machine_learning_method(パラメータ) #お手軽交差検定 cv_scores=cross_val_score(model, 説明変数, 目的変数) #交差検定の各学習のスコア平均値を計算 score =numpy.mean(cv_scores) これでScikit-learnの大体の手法は、これで使えるはず リッジ回帰の例をGithubにあげました https://github.com/anaguma2261/scikit-learn-sample/blob/master/ridge_regression.py
  • 32. 手法の種類 ?Classification(分類) –ラベルをデータで学習して、ラベルを予測 ?Regression(回帰) –実数値をデータで学習して、実数値を予測 ?Clustering(クラスタリング) –データを似ているもの同士を集めて、データの構造を発見 ?DimensionalReduction(次元削減) –データの次元を削減して、よりメタな要因を発見 (主成分分析は次元削減のひとつ) –削減した次元をデータにして他の手法を行う (次元の呪い回避) 機械学習勉強会 32 2014年7月19日
  • 33. Classification(分類) ?SVM (SVC, LinearSVC) –利点 ?汎化性能が高く、少量のデータでもうまく学習出来る事がある ?カーネルの組み合わせで様々データに対応できる –欠点 ?カーネル入れると遅い ?関数によっては、予測確率で出力できない ?K-近傍法(NearestNeighbors) –利点 ?単純な割に精度が高い –欠点 ?予測時にもメモリに学習データを格納する必要がある ?ランダムフォレスト(RandomForestClassifier) –利点 ?精度が高いことが多い ?並列計算しやすい ?過学習や、変数のスケールを考えずに、全て変数を入れて学習できる –欠点 ?ランダムフォレスト信者になりやすい 機械学習勉強会 33 2014年7月19日
  • 34. Classification(分類) ?確率的勾配法による学習(SGDClassifier) –これは手法でなく学習方法 –データが大きい時に、データを一部づつを見て 学習の計算をサボって高速化 –オプションで、SVMやロジスティック回帰が選択可能 機械学習勉強会 34 2014年7月19日
  • 35. Regression(回帰) 機械学習勉強会 35 2014年7月19日 ?重回帰(LinearRegression) –利点???速い(パラメータ無し) –欠点???Scikit-learnにstepwise法が無いので、使いにくい ?リッジ回帰(Ridge) –利点???ラッソより速い、多重線形性の影響を受けにくい –欠点???ラッソに比べて、変数選択力が弱い ?ラッソ回帰(Lasso) –利点???少ない変数でモデルを作ってくれる –欠点???リッジよりは遅い、使わない変数があることを仮定している ?SVR(SVR) –利点???カーネルで非線形性を取り込める –欠点???カーネルを入れると遅い ?ランダムフォレスト(RandomForestRegressor) –Classificationを参照回帰では予測値が離散になる欠点がある
  • 36. Clustering(クラスタリング) ?K-means法(KMeans) –利点???速いMiniBatchKMeansは計算をサボってるので更に速い –欠点???クラスタ数を最初に与えないといけない ?階層的クラスタリング(AgglomerativeClustering) 最近実装されたので表には無い –利点???クラスタ数を後から色々変えられる –欠点???遅い、大きいデータは階層が表示出来ないことも ?混合ガウス分布(GMM) –利点???各クラスタの所属確率が出る。 –欠点???正規分布を仮定する ?MeanShift(MeanShift) –使用経験がないのでノーコメント誰か教えて下さい 機械学習勉強会 36 2014年7月19日
  • 37. DimensionalReduction(次元削減) 機械学習勉強会 37 2014年7月19日 Scikit-learnのフローチャートに語れる手法があまりなかったので、私がよく使う手法を紹介 ?主成分分析(PCA) –利点???速い疎行列も扱える –欠点???裏で正規分布を仮定 ?非負値行列因子分解(NMF) –利点???要因の引き算を許さないことでより特徴を抽出できる事もある –欠点???非負行列限定 その他、LDAやDeep Learningなどなども