狠狠撸

狠狠撸Share a Scribd company logo
Inspection
of
Cloud Machine Leaning
Hyper Parameter Tuning
nagachika
GCPUG Fukuoka
Agenda
? Hyper Parameter Tuning とは?
? Hyper Parameter Tuning の性能を実験
? Hyper Parameter Tuning の探索?法を推測
About me
? nagachika
? Ruby committer, Stable branch maintainer
? Fukuoka.rb organizer
? GCPUG
? TFUG (TensorFlow User Group)
? TensorFlow contributor ← NEW
Pull Requests to TensorFlow
Cloud Machine Learning
Cloud Machine Leaning
? Training
? TensorFlow が(分散環境、GPU環境含め)?
?意されている実?環境のホスティングサービス
? TensorFlow 専?のPaaS(Heroku)
? Prediction
? TensorFlow Serving のホスティングサービス
? API で Training したモデルを利?できる
Hyper Parameter Tuning
Hyper Parameter Tuning
? Hyper Parameter とは?
? モデル(SVM, Random Forest, MLP, CNN 等々なんであれ)の学習に?
先?って決定しないといけないパラメータ
? モデルの精度に影響する
? より良い Hyper Parameter の探索が望ましい
Hyper Parameter Tuning
? Machine Learning Model
Input Output
Hyper Parameter Tuning
? Machine Learning Model
Dog or Cat
Hyper Parameter Tuning
? Machine Learning Model
Input Output
トレーニング可能な
パラメータ
トレーニング不可な
パラメータ
期待する Output が得られるように?
トレーニング可能なパラメータを?
変更するのが?
(教師あり)機械学習における?
「学習」
Hyper Parameter Tuning
? Machine Learning Model
Input Output
トレーニング可能な
パラメータ
トレーニング不可な
パラメータ
Expectation
Error
期待(Expectation)と実際の
Outputの差を定量化したもの
(Error)を最?にする。?
勾配を?いた?法が主流
Hyper Parameter Tuning
? Machine Learning Model
Input Output
トレーニング可能な
パラメータ
トレーニング不可な
パラメータ
Expectation
Error
Hyper Parameter Tuning
? Machine Learning Model
Input
(Hyper Parameter)
Output?
(Error)
Hyper Parameter を??として?
誤差(Error)を出?とする関数とみなすこともできる?
↓
Output(Error)を最?にする Input(Hyper Parameter)を?
探索する最適化問題
Hyper Parameter Tuning
? Machine Learning Model
Input
(Hyper Parameter)
Output?
(Error)
ただし、?般的に
? 勾配はわからない(そもそもInputが距離の概念がある空間と限らない)
? F(x) の評価には時間がかかる
Hyper Parameter Tuning
? Derivative-free optimization?
(勾配によらない最適化?法)
? Simulated Annealing(焼きなまし法)
? Genetic Algorithm(遺伝的アルゴリズム)
→ ?量の試?が必要で実?コストが?きい
Hyper Parameter Tuning
? Scikit learn
? Grid Search(グリッドサーチ)
? パラメータ毎に有限の候補の組み合わせ試?
? Random Search(ランダム探索)
→ シンプルだけどいまいち賢くない
Hyper Parameter Tuning
Cloud Machine Learning の?
Hyper Parameter Tuning は?
どんな?法で探索を?
しているのだろうか?
Motivation
Motivation
? 多層ニューラルネットワーク
? 層の数
? (各層の)ユニット(ニューロン)の数
? etc…
Layer-1 Layer-2
Motivation
? 層の数
? (各層の)ユニット(ニューロン)の数
? 1つのパラメータで表現したいな
? 極度に多峰的な関数になりそう…
Motivation
? 多峰性関数→最適化が困難な性質
? Cloud Machine Learning はこんな関数に対して?
どのくらい賢く最適化してくれるんだろう?
単峰性関数 多峰性関数
実験1
実験1
? Cloud Machine Learning に Hyper Parameter
Tuning で 既知の関数の最適化をさせる
? F(x) を明?的に式として与える
? Hyper Parameter を受け取って F(x) を計算し
て報告するだけの Python モジュールを作成
実験1
? Hyper Parameter
? 1変数(x), 2変数(x, y)
? 範囲は全て [-1, 1]
? 最?値を求める
? 探索回数(N)は
? 1変数 → N=10 or 15
? 2変数 → N=30
実験1
N=10
実験1
N=10
実験1
N=10
実験1
N=15
実験1
N=15
実験1
実験1
N=30
実験1
Ackley 関数
実験1
Ackley 関数 N=30
実験1
? あきらかに Grid Search ではない
? 低次元の多項式(?)くらいだとかなり賢い?
(少ない試?回数で最適値の近くを当てる)
? 難しい形状の関数もそれなりに?
(?域探索している? 局所解に落ちたりはなさそう)
? どうやってるんだろう???
Bayesian Optimization?
ベイズ最適化
Bayesian Optimization
http://mathetake.hatenablog.com/entry/2016/12/19/145311
Bayesian Optimization
https://www.youtube.com/watch?v=pQHWew4YYao
ベイズ的最適化の??と応?
機械学習による機械学習の実験計画
Bayesian Optimization
おおざっぱな理解では
? 既に得た??の結果を元に推測しつつ
? まだ調べてないあたりも調べるようにしつつ
いい感じに探索するために、?
最適化したい関数の形状を(各??に対する)?
確率分布として捉える。
Bayesian Optimization
? 関数を確率分布として捉える?
Bayesian Optimization
? 関数を確率分布として捉える?
? x をある値に固定した時にF(x)が取る値を確率分布
? 既知の?? x = x1, x2, … を元に計算する
Bayesian Optimization
? Acquisition function
? 次にテストすべき点を決めるための?
「重要度」みたいなのを決める関数
? GP-UCB
平均 分散
= 活? = 探索
実験2
実験2
? 実験1と同じF(x)に対して Bayesian Optimization
? 最初の3点は実験1の(Cloud MLの)結果を流??
(Bayesian Optimization は初期何点かはランダム探索)
? PythonのBayesianOptimizationパッケージを利??
[https://github.com/fmfn/BayesianOptimization]
? Acquisition function には GP-UCB, kappa=0.5 を選択
実験2
N=10
Cloud Machine Learning
Hyper Parameter Tuning
BayesianOptimization
実験2
N=10
Cloud Machine Learning
Hyper Parameter Tuning
BayesianOptimization
実験2
N=10
Cloud Machine Learning
Hyper Parameter Tuning
BayesianOptimization
実験2
N=15
Cloud Machine Learning
Hyper Parameter Tuning
BayesianOptimization
実験2
N=15
Cloud Machine Learning
Hyper Parameter Tuning
BayesianOptimization
実験2
実験2
N=30
Cloud Machine Learning
Hyper Parameter Tuning
BayesianOptimization
実験2
Ackley 関数
実験2
N=30
Cloud Machine Learning
Hyper Parameter Tuning
BayesianOptimization
実験2
? Bayesian Optimization > Grid Search
? Cloud Machine Learning の Hyper Parameter
Tuning と似ているといえなくもない?
? Bayesian Optimization?体にも?
Hyper Parameterがある(acquisition function
の選択, そのパラメータ etc..)
Summary
? Cloud Machine Learning のHyper Parameter
Tuning はかしこくて便利
? Hyper Parameter に対して複雑な関数になる時は?
多めに試?回数を取ろう
? Hyper Parameter Tuning の裏側は?
Bayesian Optimization?
? ???? Cloud Machine Learning の構築も夢では
ない!?
Ad

Recommended

尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?
ぼくの実装した最弱のディープラーニング
ぼくの実装した最弱のディープラーニング
なおき きしだ
?
性能測定道 実践編
性能測定道 実践編
Yuto Hayamizu
?
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
?
日本神経回路学会セミナー「顿别别辫尝别补谤苍颈苍驳を使ってみよう!」资料
日本神経回路学会セミナー「顿别别辫尝别补谤苍颈苍驳を使ってみよう!」资料
Kenta Oono
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
ChainerでDeep Learningを試すために必要なこと
ChainerでDeep Learningを試すために必要なこと
Retrieva inc.
?
性能測定道 事始め編
性能測定道 事始め編
Yuto Hayamizu
?
ディープラーニング最近の発展とビジネス応用への课题
ディープラーニング最近の発展とビジネス応用への课题
Kenta Oono
?
Stochastic Gradient MCMC
Stochastic Gradient MCMC
Kenta Oono
?
碍补驳驳濒别のテクニック
碍补驳驳濒别のテクニック
Yasunori Ozaki
?
Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)
Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)
Shotaro Sano
?
Chainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM について
Retrieva inc.
?
Introduction to Chainer and CuPy
Introduction to Chainer and CuPy
Kenta Oono
?
量子コンピュータで金融计算
量子コンピュータで金融计算
Kenji Tanaka
?
量子コンピュータで金融计算
量子コンピュータで金融计算
Kenji Tanaka
?
Kaggle参加報告: Champs Predicting Molecular Properties
Kaggle参加報告: Champs Predicting Molecular Properties
Kazuki Fujikawa
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
第3回机械学习勉强会「色々な狈狈フレームワークを动かしてみよう」-碍别谤补蝉编-
第3回机械学习勉强会「色々な狈狈フレームワークを动かしてみよう」-碍别谤补蝉编-
Yasuyuki Sugai
?
2015-11-17 きちんと知りたいApache Spark ~機械学習とさまざまな機能群
2015-11-17 きちんと知りたいApache Spark ~機械学習とさまざまな機能群
Yu Ishikawa
?
アドテク×厂肠补濒补×パフォーマンスチューニング
アドテク×厂肠补濒补×パフォーマンスチューニング
Yosuke Mizutani
?
2018年01月27日 TensorFlowの計算グラフの理解
2018年01月27日 TensorFlowの計算グラフの理解
aitc_jp
?
リアルタイム処理エンジン Gearpumpの紹介
リアルタイム処理エンジン Gearpumpの紹介
Sotaro Kimura
?
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
Deep Learning JP
?
広告配信现场て?使う厂辫补谤办机械学习
広告配信现场て?使う厂辫补谤办机械学习
x1 ichi
?
北大調和系 DLゼミ A3C
北大調和系 DLゼミ A3C
Tomoya Oda
?
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
?
自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。
自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。
kazuma ueda
?
强化学习蔼笔测顿补迟补.罢辞办测辞
强化学习蔼笔测顿补迟补.罢辞办测辞
Naoto Yoshida
?

More Related Content

What's hot (20)

性能測定道 事始め編
性能測定道 事始め編
Yuto Hayamizu
?
ディープラーニング最近の発展とビジネス応用への课题
ディープラーニング最近の発展とビジネス応用への课题
Kenta Oono
?
Stochastic Gradient MCMC
Stochastic Gradient MCMC
Kenta Oono
?
碍补驳驳濒别のテクニック
碍补驳驳濒别のテクニック
Yasunori Ozaki
?
Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)
Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)
Shotaro Sano
?
Chainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM について
Retrieva inc.
?
Introduction to Chainer and CuPy
Introduction to Chainer and CuPy
Kenta Oono
?
量子コンピュータで金融计算
量子コンピュータで金融计算
Kenji Tanaka
?
量子コンピュータで金融计算
量子コンピュータで金融计算
Kenji Tanaka
?
Kaggle参加報告: Champs Predicting Molecular Properties
Kaggle参加報告: Champs Predicting Molecular Properties
Kazuki Fujikawa
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
第3回机械学习勉强会「色々な狈狈フレームワークを动かしてみよう」-碍别谤补蝉编-
第3回机械学习勉强会「色々な狈狈フレームワークを动かしてみよう」-碍别谤补蝉编-
Yasuyuki Sugai
?
2015-11-17 きちんと知りたいApache Spark ~機械学習とさまざまな機能群
2015-11-17 きちんと知りたいApache Spark ~機械学習とさまざまな機能群
Yu Ishikawa
?
アドテク×厂肠补濒补×パフォーマンスチューニング
アドテク×厂肠补濒补×パフォーマンスチューニング
Yosuke Mizutani
?
2018年01月27日 TensorFlowの計算グラフの理解
2018年01月27日 TensorFlowの計算グラフの理解
aitc_jp
?
リアルタイム処理エンジン Gearpumpの紹介
リアルタイム処理エンジン Gearpumpの紹介
Sotaro Kimura
?
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
Deep Learning JP
?
広告配信现场て?使う厂辫补谤办机械学习
広告配信现场て?使う厂辫补谤办机械学习
x1 ichi
?
北大調和系 DLゼミ A3C
北大調和系 DLゼミ A3C
Tomoya Oda
?
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
?
性能測定道 事始め編
性能測定道 事始め編
Yuto Hayamizu
?
ディープラーニング最近の発展とビジネス応用への课题
ディープラーニング最近の発展とビジネス応用への课题
Kenta Oono
?
Stochastic Gradient MCMC
Stochastic Gradient MCMC
Kenta Oono
?
碍补驳驳濒别のテクニック
碍补驳驳濒别のテクニック
Yasunori Ozaki
?
Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)
Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)
Shotaro Sano
?
Chainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM について
Retrieva inc.
?
Introduction to Chainer and CuPy
Introduction to Chainer and CuPy
Kenta Oono
?
量子コンピュータで金融计算
量子コンピュータで金融计算
Kenji Tanaka
?
量子コンピュータで金融计算
量子コンピュータで金融计算
Kenji Tanaka
?
Kaggle参加報告: Champs Predicting Molecular Properties
Kaggle参加報告: Champs Predicting Molecular Properties
Kazuki Fujikawa
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
第3回机械学习勉强会「色々な狈狈フレームワークを动かしてみよう」-碍别谤补蝉编-
第3回机械学习勉强会「色々な狈狈フレームワークを动かしてみよう」-碍别谤补蝉编-
Yasuyuki Sugai
?
2015-11-17 きちんと知りたいApache Spark ~機械学習とさまざまな機能群
2015-11-17 きちんと知りたいApache Spark ~機械学習とさまざまな機能群
Yu Ishikawa
?
アドテク×厂肠补濒补×パフォーマンスチューニング
アドテク×厂肠补濒补×パフォーマンスチューニング
Yosuke Mizutani
?
2018年01月27日 TensorFlowの計算グラフの理解
2018年01月27日 TensorFlowの計算グラフの理解
aitc_jp
?
リアルタイム処理エンジン Gearpumpの紹介
リアルタイム処理エンジン Gearpumpの紹介
Sotaro Kimura
?
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
Deep Learning JP
?
広告配信现场て?使う厂辫补谤办机械学习
広告配信现场て?使う厂辫补谤办机械学习
x1 ichi
?
北大調和系 DLゼミ A3C
北大調和系 DLゼミ A3C
Tomoya Oda
?
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
?

Viewers also liked (20)

自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。
自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。
kazuma ueda
?
强化学习蔼笔测顿补迟补.罢辞办测辞
强化学习蔼笔测顿补迟补.罢辞办测辞
Naoto Yoshida
?
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
Daiki Shimada
?
aiconf2017okanohara
aiconf2017okanohara
Preferred Networks
?
Distributed Deep Q-Learning
Distributed Deep Q-Learning
Lyft
?
Ruby Kaja のご提案
Ruby Kaja のご提案
nagachika t
?
データレイクを基盘とした础奥厂上での机械学习サービス构筑
データレイクを基盘とした础奥厂上での机械学习サービス构筑
Amazon Web Services Japan
?
Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷
Taiga Nomi
?
Hype vs. Reality: The AI Explainer
Hype vs. Reality: The AI Explainer
Luminary Labs
?
A Reintroduction To Ruby M17 N
A Reintroduction To Ruby M17 N
Yui NARUSE
?
Machine Learning Methods for Parameter Acquisition in a Human ...
Machine Learning Methods for Parameter Acquisition in a Human ...
butest
?
MALT: Distributed Data-Parallelism for Existing ML Applications (Distributed ...
MALT: Distributed Data-Parallelism for Existing ML Applications (Distributed ...
asimkadav
?
Spark Summit EU talk by Rolf Jagerman
Spark Summit EU talk by Rolf Jagerman
Spark Summit
?
tofu - COOKPAD's image system
tofu - COOKPAD's image system
Issei Naruta
?
Japanese Rubyists you have not met yet
Japanese Rubyists you have not met yet
masayoshi takahashi
?
How to Begin to Develop Ruby Core
How to Begin to Develop Ruby Core
Hiroshi SHIBATA
?
How To Select Best Transmission For Your Vehicle
How To Select Best Transmission For Your Vehicle
Dreamcars Auto Repair
?
福冈商工会议所讲演会(2017年2月17日)
福冈商工会议所讲演会(2017年2月17日)
隆志 柳瀬
?
自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。
自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。
kazuma ueda
?
强化学习蔼笔测顿补迟补.罢辞办测辞
强化学习蔼笔测顿补迟补.罢辞办测辞
Naoto Yoshida
?
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
Daiki Shimada
?
Distributed Deep Q-Learning
Distributed Deep Q-Learning
Lyft
?
Ruby Kaja のご提案
Ruby Kaja のご提案
nagachika t
?
データレイクを基盘とした础奥厂上での机械学习サービス构筑
データレイクを基盘とした础奥厂上での机械学习サービス构筑
Amazon Web Services Japan
?
Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷
Taiga Nomi
?
Hype vs. Reality: The AI Explainer
Hype vs. Reality: The AI Explainer
Luminary Labs
?
A Reintroduction To Ruby M17 N
A Reintroduction To Ruby M17 N
Yui NARUSE
?
Machine Learning Methods for Parameter Acquisition in a Human ...
Machine Learning Methods for Parameter Acquisition in a Human ...
butest
?
MALT: Distributed Data-Parallelism for Existing ML Applications (Distributed ...
MALT: Distributed Data-Parallelism for Existing ML Applications (Distributed ...
asimkadav
?
Spark Summit EU talk by Rolf Jagerman
Spark Summit EU talk by Rolf Jagerman
Spark Summit
?
tofu - COOKPAD's image system
tofu - COOKPAD's image system
Issei Naruta
?
Japanese Rubyists you have not met yet
Japanese Rubyists you have not met yet
masayoshi takahashi
?
How to Begin to Develop Ruby Core
How to Begin to Develop Ruby Core
Hiroshi SHIBATA
?
How To Select Best Transmission For Your Vehicle
How To Select Best Transmission For Your Vehicle
Dreamcars Auto Repair
?
福冈商工会议所讲演会(2017年2月17日)
福冈商工会议所讲演会(2017年2月17日)
隆志 柳瀬
?
Ad

Similar to Inspection of CloudML Hyper Parameter Tuning (20)

明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
Preferred Networks
?
20210427 grass roots_ml_design_patterns_hyperparameter_tuning
20210427 grass roots_ml_design_patterns_hyperparameter_tuning
hitoshim
?
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
Koji Matsuda
?
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
Yaboo Oyabu
?
ハイパーパラメータ调整の労力と効果
ハイパーパラメータ调整の労力と効果
ReNom User Group
?
160924 Deep Learning Tuningathon
160924 Deep Learning Tuningathon
Takanori Ogata
?
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
Deep Learning JP
?
深層学習 Day1レポート
深層学習 Day1レポート
taishimotoda
?
ディープラーニング入門 ~ 画像処理?自然言語処理について ~
ディープラーニング入門 ~ 画像処理?自然言語処理について ~
Kensuke Otsuki
?
ベイズ最适化によるハイパラーパラメータ探索
ベイズ最适化によるハイパラーパラメータ探索
西岡 賢一郎
?
TensorFlow User Group #1
TensorFlow User Group #1
陽平 山口
?
Azure Machine Learning Services 概要 - 2019年3月版
Azure Machine Learning Services 概要 - 2019年3月版
Daiyu Hatakeyama
?
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
Deep Learning JP
?
Journal club dec24 2015 splice site prediction using artificial neural netw...
Journal club dec24 2015 splice site prediction using artificial neural netw...
Hiroya Morimoto
?
20170422 数学カフェ Part1
20170422 数学カフェ Part1
Kenta Oono
?
贬测辫别谤辞辫迟とその周辺について
贬测辫别谤辞辫迟とその周辺について
Keisuke Hosaka
?
PRML Chapter 5
PRML Chapter 5
Masahito Ohue
?
GCPUG Sapporo vol.2 ML Night
GCPUG Sapporo vol.2 ML Night
陽平 山口
?
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
Keisuke Uto
?
AI Business Challenge Day 20170316
AI Business Challenge Day 20170316
陽平 山口
?
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
Preferred Networks
?
20210427 grass roots_ml_design_patterns_hyperparameter_tuning
20210427 grass roots_ml_design_patterns_hyperparameter_tuning
hitoshim
?
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
Koji Matsuda
?
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
Yaboo Oyabu
?
ハイパーパラメータ调整の労力と効果
ハイパーパラメータ调整の労力と効果
ReNom User Group
?
160924 Deep Learning Tuningathon
160924 Deep Learning Tuningathon
Takanori Ogata
?
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
Deep Learning JP
?
深層学習 Day1レポート
深層学習 Day1レポート
taishimotoda
?
ディープラーニング入門 ~ 画像処理?自然言語処理について ~
ディープラーニング入門 ~ 画像処理?自然言語処理について ~
Kensuke Otsuki
?
ベイズ最适化によるハイパラーパラメータ探索
ベイズ最适化によるハイパラーパラメータ探索
西岡 賢一郎
?
TensorFlow User Group #1
TensorFlow User Group #1
陽平 山口
?
Azure Machine Learning Services 概要 - 2019年3月版
Azure Machine Learning Services 概要 - 2019年3月版
Daiyu Hatakeyama
?
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
Deep Learning JP
?
Journal club dec24 2015 splice site prediction using artificial neural netw...
Journal club dec24 2015 splice site prediction using artificial neural netw...
Hiroya Morimoto
?
20170422 数学カフェ Part1
20170422 数学カフェ Part1
Kenta Oono
?
贬测辫别谤辞辫迟とその周辺について
贬测辫别谤辞辫迟とその周辺について
Keisuke Hosaka
?
GCPUG Sapporo vol.2 ML Night
GCPUG Sapporo vol.2 ML Night
陽平 山口
?
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
Keisuke Uto
?
AI Business Challenge Day 20170316
AI Business Challenge Day 20170316
陽平 山口
?
Ad

More from nagachika t (13)

Make Ruby Differentiable
Make Ruby Differentiable
nagachika t
?
All bugfixes are incompatibilities
All bugfixes are incompatibilities
nagachika t
?
Functional Music Composition
Functional Music Composition
nagachika t
?
BigQuery case study in Groovenauts & Dive into the DataflowJavaSDK
BigQuery case study in Groovenauts & Dive into the DataflowJavaSDK
nagachika t
?
Magellan on Google Cloud Platform
Magellan on Google Cloud Platform
nagachika t
?
CRuby Committers Who's Who in 2013
CRuby Committers Who's Who in 2013
nagachika t
?
CRuby_Committers_Whos_Who_in_2014
CRuby_Committers_Whos_Who_in_2014
nagachika t
?
怠惰な搁耻产测颈蝉迟への道 fukuoka rubykaigi01
怠惰な搁耻产测颈蝉迟への道 fukuoka rubykaigi01
nagachika t
?
Ruby on azure で game server service
Ruby on azure で game server service
nagachika t
?
怠惰な搁耻产测颈蝉迟への道
怠惰な搁耻产测颈蝉迟への道
nagachika t
?
Ruby trunk changes 統計版
Ruby trunk changes 統計版
nagachika t
?
Pd Kai#3 Startup Process
Pd Kai#3 Startup Process
nagachika t
?
Pd Kai#2 Object Model
Pd Kai#2 Object Model
nagachika t
?
Make Ruby Differentiable
Make Ruby Differentiable
nagachika t
?
All bugfixes are incompatibilities
All bugfixes are incompatibilities
nagachika t
?
Functional Music Composition
Functional Music Composition
nagachika t
?
BigQuery case study in Groovenauts & Dive into the DataflowJavaSDK
BigQuery case study in Groovenauts & Dive into the DataflowJavaSDK
nagachika t
?
Magellan on Google Cloud Platform
Magellan on Google Cloud Platform
nagachika t
?
CRuby Committers Who's Who in 2013
CRuby Committers Who's Who in 2013
nagachika t
?
CRuby_Committers_Whos_Who_in_2014
CRuby_Committers_Whos_Who_in_2014
nagachika t
?
怠惰な搁耻产测颈蝉迟への道 fukuoka rubykaigi01
怠惰な搁耻产测颈蝉迟への道 fukuoka rubykaigi01
nagachika t
?
Ruby on azure で game server service
Ruby on azure で game server service
nagachika t
?
怠惰な搁耻产测颈蝉迟への道
怠惰な搁耻产测颈蝉迟への道
nagachika t
?
Ruby trunk changes 統計版
Ruby trunk changes 統計版
nagachika t
?
Pd Kai#3 Startup Process
Pd Kai#3 Startup Process
nagachika t
?
Pd Kai#2 Object Model
Pd Kai#2 Object Model
nagachika t
?

Inspection of CloudML Hyper Parameter Tuning