狠狠撸

狠狠撸Share a Scribd company logo
Python機械学習プログラミング
読み会
第13章
ニューラルネットワークのトレーニングをTensorFlowで並列化
1
[第2版]
基盤 江口春紀
目次
● TensorFlowとトレーニングの性能
● TensorFlowの高レベルAPI:
ニューラルネットワークの効率的なトレーニング
● 多層ニューラルネットワークでの活性化関数の選択
2
3
TensorFlowとトレーニングの性能
TensorFlowとトレーニングの性能
● 高負荷の処理を行う上での課題
● 複数のコアに分散させて並列で処理をする。
● CPUよりGPUの方が有利だがGPUをターゲットとしたコードの記述が必要。
4
TensorFlowの学び方
● TensorFlowの低レベルAPI
5
>>> import tensorflow as tf
>>>
>>> g = tf.Graph()
>>> with g.as_default():
... x = tf.placeholder(dtype=tf.float32,shape=(None), name='x')
... w = tf.Variable(2.0, name='weight')
... b = tf.Variable(0.7, name='bias')
... z = w*x + b
... init = tf.global_variables_initializer()
...
>>> with tf.Session(graph=g) as sess:
... sess.run(init)
... for t in [1.0, 0.6, -1.8]:
... print('x=%4.1f --> z=%4.1f'%(t, sess.run(z, feed_dict={x:t})))
...
x= 1.0 --> z= 2.7
x= 0.6 --> z= 1.9
x=-1.8 --> z=-2.9
TensorFlowの学び方
● TensorFlowの低レベルAPI(配列構造の操作)
6
>>> import numpy as np
>>>
>>> g = tf.Graph()
>>> with g.as_default():
... x = tf.placeholder(dtype=tf.float32,
... shape=(None, 2, 3), name='input_x')
... x2 = tf.reshape(x, shape=(-1, 6), name='x2')
... xsum = tf.reduce_sum(x2, axis=0, name='col_sum')
... xmean = tf.reduce_mean(x2, axis=0, name='col_mean')
...
>>> with tf.Session(graph=g) as sess:
... x_array = np.arange(18).reshape(3, 2, 3)
... print('input shape: ', x_array.shape)
... print('Reshaped:n', sess.run(x2, feed_dict={x:x_array}))
... print('Column Sums:n',sess.run(xsum, feed_dict={x:x_array}))
... print('Column Means:n',sess.run(xmean, feed_dict={x:x_array}))
input shape: (3, 2, 3)
Reshaped:
[[ 0. 1. 2. 3. 4. 5.]
[ 6. 7. 8. 9. 10. 11.]
[ 12. 13. 14. 15. 16. 17.]]
Column Sums:
[ 18. 21. 24. 27. 30. 33.]
Column Means:
[ 6. 7. 8. 9. 10. 11.]
TensorFlowを使った単純なモデルの開発
● 最小二乗線形回帰(Ordinary Least Squares linear regression)
● 右下のグラフに示す 1次元のデータセットを使い、入力 xから出力yを予測する
線形回帰モデルをトレーニングする。
7
TensorFlowを使った単純なモデルの開発
● 実装
● 線形回帰モデルをz=wx+bと
定義した後、コスト関数として
平均二乗誤差(MSE)を定義する。
● 重みパラメータの学習には、
勾配降下法のオプティマイザを
使用する。
8
def build(self):
self.X = tf.placeholder(dtype=tf.float32,
shape=(None, self.x_dim),
name='x_input')
self.y = tf.placeholder(dtype=tf.float32,
shape=(None), name='y_input')
w = tf.Variable(tf.zeros(shape=(1)), name='weight')
b = tf.Variable(tf.zeros(shape=(1)), name="bias")
self.z_net = tf.squeeze(w*self.X + b, name='z_net')
sqr_errors = tf.square(self.y - self.z_net,
name='sqr_errors')
self.mean_cost = tf.reduce_mean(sqr_errors,
name='mean_cost')
optimizer = tf.train.GradientDescentOptimizer(
learning_rate=self.learning_rate,
name='GradientDescent')
self.optimizer = optimizer.minimize(self.mean_cost)
TensorFlowを使った単純なモデルの開発
● 学習と予測
● トレーニングコスト(左)と、学習した線形回帰モデル (右)。
9
5エポックの後に
収束している
10
TensorFlowの高レベルAPI
TensorFlowの高レベルAPI
11
Layers API
TensorFlowの高レベルAPI
● MNISTデータセットを使った手書き文字の分類
● トレーニングデータセット: 60,000サンプル
● テストデータセット:10,000サンプル
12
Layers APIを使って多層ニューラルネットワークを構築する
● Layers APIによる実装
13
import tensorflow as tf
n_features = X_train_centered.shape[1]
n_classes = 10
random_seed = 123
np.random.seed(random_seed)
g = tf.Graph()
with g.as_default():
tf.set_random_seed(random_seed)
tf_x = tf.placeholder(dtype=tf.float32, shape=(None, n_features), name='tf_x')
tf_y = tf.placeholder(dtype=tf.int32, shape=None, name='tf_y')
y_onehot = tf.one_hot(indices=tf_y, depth=n_classes)
h1 = tf.layers.dense(inputs=tf_x, units=50, activation=tf.tanh, name='layer1')
h2 = tf.layers.dense(inputs=h1, units=50, activation=tf.tanh, name='layer2')
logits = tf.layers.dense(inputs=h2, units=10, activation=None, name='layer3')
predictions = {
'classes' : tf.argmax(logits, axis=1, name='predicted_classes'),
'probabilities' : tf.nn.softmax(logits, name='softmax_tensor')
}
activationで
活性化関数を指定する
ただLayerを重ねていくだけで良い
Kerasを使って多層ニューラルネットワークを構築する
● Keras
● Pythonで書かれた,TensorFlowまたはCNTK,Theano上で実行可能な
ニューラルネットワークライブラリである。
● 非常に少ないコードでニューラルネットワークを実装することができる。
14
Kerasを使って多層ニューラルネットワークを構築する
● Kerasによる実装
15
y_train_onehot = keras.utils.to_categorical(y_train)
model = keras.models.Sequential()
model.add(
keras.layers.Dense(units=50, input_dim=X_train_centered.shape[1],
kernel_initializer='glorot_uniform', bias_initializer='zeros', activation='tanh'))
model.add(
keras.layers.Dense(units=50, input_dim=50, kernel_initializer='glorot_uniform',
bias_initializer='zeros', activation='tanh'))
model.add(
keras.layers.Dense(units=y_train_onehot.shape[1], input_dim=50, kernel_initializer='glorot_uniform',
bias_initializer='zeros', activation='softmax'))
sgd_optimizer = keras.optimizers.SGD(lr=0.001, decay=1e-7, momentum=.9)
model.compile(optimizer=sgd_optimizer, loss='categorical_crossentropy')
history = model.fit(X_train_centered, y_train_onehot, batch_size=64, epochs=50,
verbose=1, validation_split=0.1)
one-hotフォーマット変換
.add()で簡単にレイヤーを積み重ねることができる
モデルの初期化
16
多層ニューラルネットワークでの
活性化関数の選択
多層ニューラルネットワークでの活性化関数の選択
● 活性化関数には非線形関数を使用する
● 多層ニューラルネットワークでは微分可能であれば、どのような関数でも活性化関数に
使用することができるが、線形関数を用いるとニューラルネットワークで層を深くすること
の意味がなくなる。
これは、線形関数の総和は線形関数であるため。
17
ロジスティック関数のまとめ
● シグモイド関数
● 二値分類タスクにおいてサンプル xがクラス1に分類される確率をモデル化できる。
18
このサンプルxがクラス1に所属する確率は
88.8%であると解釈することができる。
双曲線正接関数
● 双曲線正接(Hyperbolic tangent)関数
● ロジスティック関数の尺度を取り直したバージョンとして解釈できる。
● ロジスティック関数に対する双曲線正接関数の利点は出力範囲が広く、
開区間(-1, 1)に及ぶことである。
19
ReLUで勾配消失問題に対処する
● 勾配消失問題
● 例えば総入力がz1=20からz2=25に変化したとき
のように出力はあまり変わらないことがわかる。
つまり活性化関数の微分は zが大きくなると
消失してしまう。
● ReLU(Rectified Linear Unit)
● ReLUは勾配消失問題に対処し、以下のように
定義される。
20
まとめ
● TensorFlow
● DLをメインに数値計算を行うオープンソースライブラリで、
多層ニューラルネットワークの定義とトレーニングを効率よく行うことができる。
● TensorFlowの高レベルAPI
● Layers API
● Keras
● 活性化関数
● シグモイド関数、双曲線正接関数、 ReLU、等。
21
Ad

Recommended

[第2版]Python機械学習プログラミング 第15章
[第2版]Python機械学習プログラミング 第15章
Haruki Eguchi
?
[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章
Haruki Eguchi
?
[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章
Haruki Eguchi
?
[第2版]Python機械学習プログラミング 第14章
[第2版]Python機械学習プログラミング 第14章
Haruki Eguchi
?
[第2版]Python機械学習プログラミング 第16章
[第2版]Python機械学習プログラミング 第16章
Haruki Eguchi
?
[第2版]Python機械学習プログラミング 第8章
[第2版]Python機械学習プログラミング 第8章
Haruki Eguchi
?
2013.07.15 はし?ハ?タlt scikit-learnて?始める機械学習
2013.07.15 はし?ハ?タlt scikit-learnて?始める機械学習
Motoya Wakiyama
?
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装
Ryosuke Okuta
?
科学技术计算関连笔测迟丑辞苍パッケージの概要
科学技术计算関连笔测迟丑辞苍パッケージの概要
Toshihiro Kamishima
?
DTrace for biginners part(2)
DTrace for biginners part(2)
Shoji Haraguchi
?
はじめての人のためのDeep Learning
はじめての人のためのDeep Learning
Tadaichiro Nakano
?
尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
Shinya Akiba
?
「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"
Ken'ichi Matsui
?
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
Ryosuke Okuta
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
[第2版]Python機械学習プログラミング 第9章
[第2版]Python機械学習プログラミング 第9章
Haruki Eguchi
?
17セ?ロから作るテ?ィーフ?ラーニンク?2章パーセプトロン
17セ?ロから作るテ?ィーフ?ラーニンク?2章パーセプトロン
Keiichirou Miyamoto
?
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
?
深层学习フレームワーク颁丑补颈苍别谤の绍介と贵笔骋础への期待
深层学习フレームワーク颁丑补颈苍别谤の绍介と贵笔骋础への期待
Seiya Tokui
?
BMS Molecular Translation 3rd place solution
BMS Molecular Translation 3rd place solution
Kazuki Fujikawa
?
More modern gpu
More modern gpu
Preferred Networks
?
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
Tadaichiro Nakano
?
深層学習レポート Day1 (小川成)
深層学習レポート Day1 (小川成)
ssuser441cb9
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
Pythonて?体験する深層学習 5章
Pythonて?体験する深層学習 5章
孝好 飯塚
?
Chainer/CuPy v5 and Future (Japanese)
Chainer/CuPy v5 and Future (Japanese)
Seiya Tokui
?
础苍诲谤辞颈诲で动かすはじめての顿别别辫尝别补谤苍颈苍驳
础苍诲谤辞颈诲で动かすはじめての顿别别辫尝别补谤苍颈苍驳
Miyoshi Kosuke
?
Machine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEE
Antonio Tejero de Pablos
?
罢别苍蝉辞谤蹿濒辞飞と碍别谤补蝉による深层学习のプログラム実装実践讲座
罢别苍蝉辞谤蹿濒辞飞と碍别谤补蝉による深层学习のプログラム実装実践讲座
Ruo Ando
?

More Related Content

What's hot (20)

科学技术计算関连笔测迟丑辞苍パッケージの概要
科学技术计算関连笔测迟丑辞苍パッケージの概要
Toshihiro Kamishima
?
DTrace for biginners part(2)
DTrace for biginners part(2)
Shoji Haraguchi
?
はじめての人のためのDeep Learning
はじめての人のためのDeep Learning
Tadaichiro Nakano
?
尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
Shinya Akiba
?
「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"
Ken'ichi Matsui
?
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
Ryosuke Okuta
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
[第2版]Python機械学習プログラミング 第9章
[第2版]Python機械学習プログラミング 第9章
Haruki Eguchi
?
17セ?ロから作るテ?ィーフ?ラーニンク?2章パーセプトロン
17セ?ロから作るテ?ィーフ?ラーニンク?2章パーセプトロン
Keiichirou Miyamoto
?
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
?
深层学习フレームワーク颁丑补颈苍别谤の绍介と贵笔骋础への期待
深层学习フレームワーク颁丑补颈苍别谤の绍介と贵笔骋础への期待
Seiya Tokui
?
BMS Molecular Translation 3rd place solution
BMS Molecular Translation 3rd place solution
Kazuki Fujikawa
?
More modern gpu
More modern gpu
Preferred Networks
?
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
Tadaichiro Nakano
?
深層学習レポート Day1 (小川成)
深層学習レポート Day1 (小川成)
ssuser441cb9
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
Pythonて?体験する深層学習 5章
Pythonて?体験する深層学習 5章
孝好 飯塚
?
Chainer/CuPy v5 and Future (Japanese)
Chainer/CuPy v5 and Future (Japanese)
Seiya Tokui
?
础苍诲谤辞颈诲で动かすはじめての顿别别辫尝别补谤苍颈苍驳
础苍诲谤辞颈诲で动かすはじめての顿别别辫尝别补谤苍颈苍驳
Miyoshi Kosuke
?
科学技术计算関连笔测迟丑辞苍パッケージの概要
科学技术计算関连笔测迟丑辞苍パッケージの概要
Toshihiro Kamishima
?
DTrace for biginners part(2)
DTrace for biginners part(2)
Shoji Haraguchi
?
はじめての人のためのDeep Learning
はじめての人のためのDeep Learning
Tadaichiro Nakano
?
尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
Shinya Akiba
?
「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"
Ken'ichi Matsui
?
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
Ryosuke Okuta
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
[第2版]Python機械学習プログラミング 第9章
[第2版]Python機械学習プログラミング 第9章
Haruki Eguchi
?
17セ?ロから作るテ?ィーフ?ラーニンク?2章パーセプトロン
17セ?ロから作るテ?ィーフ?ラーニンク?2章パーセプトロン
Keiichirou Miyamoto
?
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
?
深层学习フレームワーク颁丑补颈苍别谤の绍介と贵笔骋础への期待
深层学习フレームワーク颁丑补颈苍别谤の绍介と贵笔骋础への期待
Seiya Tokui
?
BMS Molecular Translation 3rd place solution
BMS Molecular Translation 3rd place solution
Kazuki Fujikawa
?
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
Tadaichiro Nakano
?
深層学習レポート Day1 (小川成)
深層学習レポート Day1 (小川成)
ssuser441cb9
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
Pythonて?体験する深層学習 5章
Pythonて?体験する深層学習 5章
孝好 飯塚
?
Chainer/CuPy v5 and Future (Japanese)
Chainer/CuPy v5 and Future (Japanese)
Seiya Tokui
?
础苍诲谤辞颈诲で动かすはじめての顿别别辫尝别补谤苍颈苍驳
础苍诲谤辞颈诲で动かすはじめての顿别别辫尝别补谤苍颈苍驳
Miyoshi Kosuke
?

Similar to [第2版]Python機械学習プログラミング 第13章 (20)

Machine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEE
Antonio Tejero de Pablos
?
罢别苍蝉辞谤蹿濒辞飞と碍别谤补蝉による深层学习のプログラム実装実践讲座
罢别苍蝉辞谤蹿濒辞飞と碍别谤补蝉による深层学习のプログラム実装実践讲座
Ruo Ando
?
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
Daiyu Hatakeyama
?
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)
孝好 飯塚
?
厂骋顿による顿别别辫尝别补谤苍颈苍驳の学习
厂骋顿による顿别别辫尝别补谤苍颈苍驳の学习
Masashi (Jangsa) Kawaguchi
?
深層学習 Day1レポート
深層学習 Day1レポート
taishimotoda
?
深层学习入门 スライド
深层学习入门 スライド
swamp Sawa
?
ラビットチャレンジレポート 深層学習 Day1
ラビットチャレンジレポート 深層学習 Day1
ssuserf4860b
?
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)
Toshihiko Yamakami
?
罢别苍蝉辞谤贵濒辞飞をもう少し详しく入门
罢别苍蝉辞谤贵濒辞飞をもう少し详しく入门
tak9029
?
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
Deep Learning JP
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
03冲深层学习
03冲深层学习
CHIHIROGO
?
Deep Learning Demonstration using Tensorflow (7th lecture)
Deep Learning Demonstration using Tensorflow (7th lecture)
Parth Nandedkar
?
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
marsee101
?
TensorFlow White Paperを読む
TensorFlow White Paperを読む
Yuta Kashino
?
ディープニューラルネット入门
ディープニューラルネット入门
TanUkkii
?
第3回机械学习勉强会「色々な狈狈フレームワークを动かしてみよう」-碍别谤补蝉编-
第3回机械学习勉强会「色々な狈狈フレームワークを动かしてみよう」-碍别谤补蝉编-
Yasuyuki Sugai
?
2018年01月27日 Keras/TesorFlowによるディープラーニング事始め
2018年01月27日 Keras/TesorFlowによるディープラーニング事始め
aitc_jp
?
【尘补肠翱厂にも対応】础滨入门「第3回:数学が苦手でも作って使える碍别谤补蝉ディープラーニング」
【尘补肠翱厂にも対応】础滨入门「第3回:数学が苦手でも作って使える碍别谤补蝉ディープラーニング」
fukuoka.ex
?
罢别苍蝉辞谤蹿濒辞飞と碍别谤补蝉による深层学习のプログラム実装実践讲座
罢别苍蝉辞谤蹿濒辞飞と碍别谤补蝉による深层学习のプログラム実装実践讲座
Ruo Ando
?
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
Daiyu Hatakeyama
?
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)
孝好 飯塚
?
厂骋顿による顿别别辫尝别补谤苍颈苍驳の学习
厂骋顿による顿别别辫尝别补谤苍颈苍驳の学习
Masashi (Jangsa) Kawaguchi
?
深層学習 Day1レポート
深層学習 Day1レポート
taishimotoda
?
深层学习入门 スライド
深层学习入门 スライド
swamp Sawa
?
ラビットチャレンジレポート 深層学習 Day1
ラビットチャレンジレポート 深層学習 Day1
ssuserf4860b
?
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)
Toshihiko Yamakami
?
罢别苍蝉辞谤贵濒辞飞をもう少し详しく入门
罢别苍蝉辞谤贵濒辞飞をもう少し详しく入门
tak9029
?
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
Deep Learning JP
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
03冲深层学习
03冲深层学习
CHIHIROGO
?
Deep Learning Demonstration using Tensorflow (7th lecture)
Deep Learning Demonstration using Tensorflow (7th lecture)
Parth Nandedkar
?
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
marsee101
?
TensorFlow White Paperを読む
TensorFlow White Paperを読む
Yuta Kashino
?
ディープニューラルネット入门
ディープニューラルネット入门
TanUkkii
?
第3回机械学习勉强会「色々な狈狈フレームワークを动かしてみよう」-碍别谤补蝉编-
第3回机械学习勉强会「色々な狈狈フレームワークを动かしてみよう」-碍别谤补蝉编-
Yasuyuki Sugai
?
2018年01月27日 Keras/TesorFlowによるディープラーニング事始め
2018年01月27日 Keras/TesorFlowによるディープラーニング事始め
aitc_jp
?
【尘补肠翱厂にも対応】础滨入门「第3回:数学が苦手でも作って使える碍别谤补蝉ディープラーニング」
【尘补肠翱厂にも対応】础滨入门「第3回:数学が苦手でも作って使える碍别谤补蝉ディープラーニング」
fukuoka.ex
?
Ad

More from Haruki Eguchi (10)

[第2版]Python機械学習プログラミング 第11章
[第2版]Python機械学習プログラミング 第11章
Haruki Eguchi
?
[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章
Haruki Eguchi
?
[第2版]Python機械学習プログラミング 第7章
[第2版]Python機械学習プログラミング 第7章
Haruki Eguchi
?
[第2版]Python機械学習プログラミング 第6章
[第2版]Python機械学習プログラミング 第6章
Haruki Eguchi
?
[第2版] Python機械学習プログラミング 第5章
[第2版] Python機械学習プログラミング 第5章
Haruki Eguchi
?
[第2版] Python機械学習プログラミング 第4章
[第2版] Python機械学習プログラミング 第4章
Haruki Eguchi
?
[第2版] Python機械学習プログラミング 第3章(5節~)
[第2版] Python機械学習プログラミング 第3章(5節~)
Haruki Eguchi
?
[第2版] Python機械学習プログラミング 第3章(~4節)
[第2版] Python機械学習プログラミング 第3章(~4節)
Haruki Eguchi
?
[第2版] Python機械学習プログラミング 第2章
[第2版] Python機械学習プログラミング 第2章
Haruki Eguchi
?
[第2版] Python機械学習プログラミング 第1章
[第2版] Python機械学習プログラミング 第1章
Haruki Eguchi
?
[第2版]Python機械学習プログラミング 第11章
[第2版]Python機械学習プログラミング 第11章
Haruki Eguchi
?
[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章
Haruki Eguchi
?
[第2版]Python機械学習プログラミング 第7章
[第2版]Python機械学習プログラミング 第7章
Haruki Eguchi
?
[第2版]Python機械学習プログラミング 第6章
[第2版]Python機械学習プログラミング 第6章
Haruki Eguchi
?
[第2版] Python機械学習プログラミング 第5章
[第2版] Python機械学習プログラミング 第5章
Haruki Eguchi
?
[第2版] Python機械学習プログラミング 第4章
[第2版] Python機械学習プログラミング 第4章
Haruki Eguchi
?
[第2版] Python機械学習プログラミング 第3章(5節~)
[第2版] Python機械学習プログラミング 第3章(5節~)
Haruki Eguchi
?
[第2版] Python機械学習プログラミング 第3章(~4節)
[第2版] Python機械学習プログラミング 第3章(~4節)
Haruki Eguchi
?
[第2版] Python機械学習プログラミング 第2章
[第2版] Python機械学習プログラミング 第2章
Haruki Eguchi
?
[第2版] Python機械学習プログラミング 第1章
[第2版] Python機械学習プログラミング 第1章
Haruki Eguchi
?
Ad

[第2版]Python機械学習プログラミング 第13章