狠狠撸

狠狠撸Share a Scribd company logo
Auto Encoderの実装と比較
法政大学理工学部3年 松岡 佑磨
1
http://www.facebook.com/yuma.matsuoka.0226
自己紹介
? 松岡 佑磨(Matsuoka Yuma)
? 法政大学理工学部3年 知的情報処理研究室所属
? 全脳アーキテクチャ若手の会
? 趣味:料理、旅行、ボイパ
? 3月に青春18切符で
小田原、焼津、名古屋、京都、
奈良、大阪、神戸、姫路、直島、
宮島を回ってきますー!
2
Auto Encoder作成へのモチベーション
3
6月
? Back Propagationの完成
? 中間層いじったらAuto Encoderできるじゃん!
7月
? Auto Encoderのスパース化…正則化項って意味ワカメ
10月
? 微分の更新式いじってスパース化できたか!?
11月
? 出力用ライブラリ使えるようになってぶちおもろい!
What’s Auto Encoder?
? 機械学習において、ニューラルネットワークを
使用した次元圧縮のためのアルゴリズム
(ウィキペディアより)
? 非線形の次元圧縮器(PCAも次元圧縮器)
4
Back Propagationの
中間層をボトルネックにする
Back Propagation
5
? 3層構造のニューラルネットワーク
? 教師あり学習
? 誤差からパラメータを更新
入力
中間層
出力層
Back Propagation
6
? Forward
? 入力ベクトルと重み行列の内積をとる、活性関数に通す
? 誤差を計算
? 出力ベクトルと教師データベクトルの2乗誤差を計算
? Backward
? 誤差を微分して重みの更新に必要な値を取得
? 重みの更新
? 既存の重みの値から誤差の微分を減算
Forward
誤差を
計算
Backward
重みの
更新
Back Propagation
7
? Forward
? 入力ベクトルと重み行列の内積をとる、活性関数に通す
? 誤差を計算
? 出力ベクトルと教師データベクトルの2乗誤差を計算
? Backward
? 誤差を微分して重みの更新に必要な値を取得
? 重みの更新
? 既存の重みの値から誤差の微分を減算
Forward
誤差を
計算
Backward
重みの
更新
誤差関数に関して
誤差を小さく→傾きを小さく
Back Propagation
8
? Forward
? 入力ベクトルと重み行列の内積をとる、活性関数に通す
? 誤差を計算
? 出力ベクトルと教師データベクトルの2乗誤差を計算
? Backward
? 誤差を微分して重みの更新に必要な値を取得
? 重みの更新
? 既存の重みの値から誤差の微分を減算
Forward
誤差を
計算
Backward
重みの
更新
Back Propagationの詳しい流れは省略します
Back Propagationの実装
9
? Pythonによる実装(numpyを使用)
? データセットはUCIのIris.data(Input:4, Output:3)
入力層
中間層
出力層
誤差計算層
Back Propagationの実装
10
F(x)
中間層と出力層はおなじ処理を行う→同じクラスで作成
Auto Encoder
11
? フィードフォワード型のニューラルネットワーク
(Back Propagationと同じような構造)
? 中間層を入出力層よりも小さくする(ボトルネック)
? 出力は入力と同じベクトルを出力するように学習
? 入力→中間層:エンコーダ
h = ? ?? + ?
? 中間層→出力:デコーダ
y = ?′
? ?
? + ?′
エンコーダ デコーダ
入力層
中間層
出力層
?
?
?
?
?
h
h
h
y
y
y
y
y
?
?
? ?
? ?
Auto Encoderの愉快な仲間たち
12
? Auto Encoder
? 従来の手法
? Denoising Auto Encoder
? 入力にノイズを加えて、そのノイズを取り除くように学習
? Sparse Auto Encoder
? 一部の中間層が疎になるように学習
Denoising Auto Encoder
13
? 入力にノイズを加えてニューラルネットワークに
データを与える
? 教師データはノイズを加える前のデータを用いる
入力層 中間層 出力層
誤差出力層
ノイズ付与
教師データは
ノイズなし
Denoising Auto Encoder
14
? 入力にノイズを加えてニューラルネットワークに
データを与える
? 教師データはノイズを加える前のデータを用いる
入力層 隠れ層 出力層
誤差出力層
ノイズ付与
教師データは
ノイズなし
ノイズのある画像にも対応しやすい
↓
汎化性能が高い
Sparse Auto Encoder
15
? 誤差関数に中間層が疎(スパース)になるような
正則化項を加えて学習
???
?
?? ? ?′
? ?
? ??? + ? + ?′
2
2
+
?
?(?? ?
+ ?)
? 入力→中間層:エンコーダ
h = ? ?? + ?
? 中間層→入力:デコーダ
y = ?′
? ?
? + ?′
? スパース項(L1ノルム):中間層の絶対値の総和
?? 1
Sparse Auto Encoder
16
? 誤差関数に中間層が疎(スパース)になるような
正則化項を加えて学習
???
?
?? ? ?′
? ?
? ??? + ? + ?′
2
2
+
?
?(?? ?
+ ?)
? 正則化項:L1ノルム( ?? 1 )
? ?? 1:中間層の絶対値の総和
中間層も最少になるように
Neural Networkを最適化
? スパース化させたい部分をL1ノルムにして正則化項に加える
Sparse Auto Encoder
17
正則化項がノルム→出力が0になる部分が生じる
? = (?2 ? ?1 )2?(?2 ? ?1 )2
? = ?2 ? ?1 + ?2 ? ?1
0
マンハッタン距離
ユーグリッド距離
Auto Encoderの実装
18
? Pythonによる実装(numpy,matplotlibを使用)
? データセットはMNISTの手書き文字画像
(Input:784 Output:784)
784784
入力層 中間層 出力層
誤差出力層
Denoising Auto Encoderの実装
19
? 入力ベクトルに対して任意の確率で値を変更
? ノイズ付与前の画像を教師データとして学習
原画像=教師データ ノイズ付与画像
Sparse Auto Encoderの実装
20
? 中間層の重みとバイアスの微分をBack Propagationから変
更
?
??
??
=
??
??
??
??
+
??
??
=
??
??
??
??2
??2
??
??
??1
??1
??
+
??
??
?
??
??
=
??
??
??
??
+
??
??
=
??
??
??
??2
??2
??
??
??1
??1
??
+
??
??
?
??
??
= 2 ? ? ?
?
??
??2
= ?′ = ? 1 ? ?
?
??
??
= ? ?
?
??
??1
= ?′
= ? 1 ? ?
?
??1
??
= ?
?
??
??
= ?′?1 = ? 1 ? ? ?
?
??
??
= ?′ = ? 1 ? ?
Sparse Auto Encoder
21
? 誤差関数に中間層が疎(スパース)になるような
正則化項を加えて学習
一部の中間層で出力が0となる
↓
スパース化できている
0
0
0
1
1
実験内容
22
? 中間層の次元は100, 400, 900の3種類用意
? 3種類のAuto Encoderで学習を実行
? 以下の内容に注目する
? データを流した時の中間層の出力を可視化
? 中間層と出力層の重みを可視化
? 出力層の出力を可視化
実験内容
23
種類 中間層素子数
AE 100
Denoising AE 100
Sparse AE 100
AE 400
Denoising AE 400
Sparse AE 400
AE 900
Denoising AE 900
Sparse AE 900
? MNISTの手書き文字画像6万枚
(Input:784 Output:784)
? 学習係数:0.001
? バッチサイズ:100
? エポック:10000
AutoEncoderの種類
中間層の素子数
を変えて性能比較
出力の再現性(AEの種類で比較)
24
入力データと出力データ(9パターン)
Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力
出力
入力
出力
入力
出力
入力
出力
入力
出力
入力
出力
Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
出力の再現性(AEの種類で比較)
25
入力データと出力データ(9パターン)
Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
Sparse Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力
出力
入力
出力
入力
出力
入力
出力
入力
出力
入力
出力
誤差率の推移(AEの種類で比較)
26
誤差計算層の出力
Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差率の推移(AEの種類で比較)
27
誤差計算層の出力
Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
Sparse Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差率の推移(AEの種類で比較)
28
誤差計算層の出力
Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
Sparse Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をスパース化させるために
誤差が下がりにくい
中間層と出力層の特徴量取得を比較
29
Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み 出力層の重み
中間層と出力層の特徴量取得を比較
30
Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み 出力層の重み
中間層と出力層の特徴量取得を比較
31
Sparse Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み 出力層の重み
スパース化による特徴量取得の比較
32
出力層の重み
Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
Sparse Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
スパース化による特徴量取得の比較
33
出力層の重み
Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
Sparse Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
SparseAEは学習性能が高く、中間層の次元は100で
余裕があるため、特徴を取っていない素子があるのでは?
Sparse性の確認
34
SparseAEには0に近い輝度値を取る要素が明らかに多い
中間層の出力(9パターン)
Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
Sparse Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(9パターン)
Sparse性の確認
35
SparseAEには0に近い輝度値を取る要素が明らかに多い
中間層の出力(9パターン)
Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
Sparse Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(9パターン)
明らかに黒い部分(値が0)が多い
Sparse性の確認
36
SparseAEには0に近い輝度値を取る要素が明らかに多い
中間層の出力をヒストグラムに出力
Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
Sparse Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
Sparse性の確認
37
SparseAEには0に近い輝度値を取る要素が明らかに多い
中間層の出力をヒストグラムに出力
Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
Sparse Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
Auto Encoderをスパース化できてる(^^)v
Auto Encoder_まとめ
? スパース化によって出力が少しぼやける
? 過学習を防げそう?
? スパース項を加えることで誤差が下がりにくくなる
? 中間層出力をスパース化しているから
? SparseAEは特徴抽出に素子間で偏りがあった
? 特徴表現能力がほかの仲間たちより高い
? SparseAEは全体の1割以下の素子で特徴表現できた
? 枝刈りをして計算量を大幅に減らせるかも
38
appendix
39
? ソースコード
? 実験結果一覧
ソースコード
40
? Back Propagation
? https://github.com/yumatsuoka/Back_propagation/bl
ob/master/BP_Iris_One_Numpy.py
? Auto Encoder
? https://github.com/yumatsuoka/Auto_Encoder/blob/
master/autoencoder_multi.py
AutoEncoderでの可視化に関して以下のページのコードを参考にしました
http://qiita.com/kenmatsu4/items/99d4a54d5a57405ecaf8#1%E6%9C%80%E5%88%9D%E3%81%AB
41
Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差の勾配
42
Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力データと出力データ(100パターン)
43
Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み
44
Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
出力層の重み
45
Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(100パターン)
46
Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
47
Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差の勾配
48
Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力データと出力データ(100パターン)
49
Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み
50
Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
出力層の重み
51
Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(100パターン)
52
Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
53
Sparse Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差の勾配
54
Sparse Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力データと出力データ(100パターン)
55
Sparse Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み
56
Sparse Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
出力層の重み
57
Sparse Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(100パターン)
58
Sparse Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
59
Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差の勾配
60
Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力データと出力データ(100パターン)
61
Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み
62
Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
出力層の重み
63
Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(100パターン)
64
Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
65
Denoising Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差の勾配
66
Denoising Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力データと出力データ(100パターン)
67
Denoising Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み
68
Denoising Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
出力層の重み
69
Denoising Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(100パターン)
70
Denoising Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
71
Sparse Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差の勾配
72
Sparse Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力データと出力データ(100パターン)
73
Sparse Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み
74
Sparse Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
出力層の重み
75
Sparse Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(100パターン)
76
Sparse Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
77
Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差の勾配
78
Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力データと出力データ(100パターン)
79
Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み
80
Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
出力層の重み
81
Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(100パターン)
82
Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
83
Denoising Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差の勾配
84
Denoising Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力データと出力データ(100パターン)
85
Denoising Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み
86
Denoising Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
出力層の重み
87
Denoising Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(100パターン)
88
Denoising Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
89
Sparse Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差の勾配
90
Sparse Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力データと出力データ(100パターン)
91
Sparse Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み
92
Sparse Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
出力層の重み
93
Sparse Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(100パターン)
94
Sparse Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
95
? 以下からSparse Denoising Auto Encoder
96
Sparse Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差の勾配
97
Sparse Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力データと出力データ(100パターン)
98
Sparse Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み
99
Sparse Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
出力層の重み
100
Sparse Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(100パターン)
101
Sparse Denoising Auto Encoder
中間層素子数 100 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
102
Sparse Denoising Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差の勾配
103
Sparse Denoising Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力データと出力データ(100パターン)
104
Sparse Denoising Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み
105
Sparse Denoising Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
出力層の重み
106
Sparse Denoising Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(100パターン)
107
Sparse Denoising Auto Encoder
中間層素子数 400 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
108
Sparse Denoising Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
誤差の勾配
109
Sparse Denoising Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
入力データと出力データ(100パターン)
110
Sparse Denoising Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の重み
111
Sparse Denoising Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
出力層の重み
112
Sparse Denoising Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力(100パターン)
113
Sparse Denoising Auto Encoder
中間層素子数 900 学習係数 0.001
バッチサイズ 100 エポック 10,000
中間層の出力をヒストグラムに出力
Ad

Recommended

机械学习におけるオンライン确率的最适化の理论
机械学习におけるオンライン确率的最适化の理论
Taiji Suzuki
?
DeepLearning 14章 自己符号化器
DeepLearning 14章 自己符号化器
hirono kawashima
?
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP
?
摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习
Deep Learning JP
?
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
?
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series
Deep Learning JP
?
贰尝叠翱型痴础贰のダメなところ
贰尝叠翱型痴础贰のダメなところ
KCS Keio Computer Society
?
罢别苍蝉辞谤贵濒辞飞で逆强化学习
罢别苍蝉辞谤贵濒辞飞で逆强化学习
Mitsuhisa Ohta
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics
?
深层生成モデルを用いたマルチモーダル学习
深层生成モデルを用いたマルチモーダル学习
Masahiro Suzuki
?
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
Deep Learning JP
?
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
Deep Learning JP
?
論文紹介: Fast R-CNN&Faster R-CNN
論文紹介: Fast R-CNN&Faster R-CNN
Takashi Abe
?
强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
Kenji Urai
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
Deep Learning JP
?
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
?
ドメイン适応の原理と応用
ドメイン适応の原理と応用
Yoshitaka Ushiku
?
统计的手法に基づく异常音検知の理论と応用
统计的手法に基づく异常音検知の理论と応用
Yuma Koizumi
?
多様な强化学习の概念と课题认识
多様な强化学习の概念と课题认识
佑 甲野
?
Deep Learningと画像認識   ~歴史?理論?実践~
Deep Learningと画像認識   ~歴史?理論?実践~
nlab_utokyo
?
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
Hitomi Yanaka
?
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
Kazuhide Okamura
?
BlackBox モデルの説明性?解釈性技術の実装
BlackBox モデルの説明性?解釈性技術の実装
Deep Learning Lab(ディープラーニング?ラボ)
?
データに内在する构造をみるための埋め込み手法
データに内在する构造をみるための埋め込み手法
Tatsuya Shirakawa
?
モデル高速化百选
モデル高速化百选
Yusuke Uchida
?
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
?
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Ohsawa Goodfellow
?

More Related Content

What's hot (20)

深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics
?
深层生成モデルを用いたマルチモーダル学习
深层生成モデルを用いたマルチモーダル学习
Masahiro Suzuki
?
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
Deep Learning JP
?
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
Deep Learning JP
?
論文紹介: Fast R-CNN&Faster R-CNN
論文紹介: Fast R-CNN&Faster R-CNN
Takashi Abe
?
强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
Kenji Urai
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
Deep Learning JP
?
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
?
ドメイン适応の原理と応用
ドメイン适応の原理と応用
Yoshitaka Ushiku
?
统计的手法に基づく异常音検知の理论と応用
统计的手法に基づく异常音検知の理论と応用
Yuma Koizumi
?
多様な强化学习の概念と课题认识
多様な强化学习の概念と课题认识
佑 甲野
?
Deep Learningと画像認識   ~歴史?理論?実践~
Deep Learningと画像認識   ~歴史?理論?実践~
nlab_utokyo
?
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
Hitomi Yanaka
?
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
Kazuhide Okamura
?
BlackBox モデルの説明性?解釈性技術の実装
BlackBox モデルの説明性?解釈性技術の実装
Deep Learning Lab(ディープラーニング?ラボ)
?
データに内在する构造をみるための埋め込み手法
データに内在する构造をみるための埋め込み手法
Tatsuya Shirakawa
?
モデル高速化百选
モデル高速化百选
Yusuke Uchida
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics
?
深层生成モデルを用いたマルチモーダル学习
深层生成モデルを用いたマルチモーダル学习
Masahiro Suzuki
?
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
Deep Learning JP
?
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
Deep Learning JP
?
論文紹介: Fast R-CNN&Faster R-CNN
論文紹介: Fast R-CNN&Faster R-CNN
Takashi Abe
?
强化学习と逆强化学习を组み合わせた模倣学习
强化学习と逆强化学习を组み合わせた模倣学习
Eiji Uchibe
?
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
Kenji Urai
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
Deep Learning JP
?
ドメイン适応の原理と応用
ドメイン适応の原理と応用
Yoshitaka Ushiku
?
统计的手法に基づく异常音検知の理论と応用
统计的手法に基づく异常音検知の理论と応用
Yuma Koizumi
?
多様な强化学习の概念と课题认识
多様な强化学习の概念と课题认识
佑 甲野
?
Deep Learningと画像認識   ~歴史?理論?実践~
Deep Learningと画像認識   ~歴史?理論?実践~
nlab_utokyo
?
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
Hitomi Yanaka
?
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
Kazuhide Okamura
?
データに内在する构造をみるための埋め込み手法
データに内在する构造をみるための埋め込み手法
Tatsuya Shirakawa
?
モデル高速化百选
モデル高速化百选
Yusuke Uchida
?

Similar to 础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较 (20)

Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
?
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Ohsawa Goodfellow
?
卒研発表 バースカ(確認済み)
卒研発表 バースカ(確認済み)
Baasanchuluun Batnasan
?
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
Morpho, Inc.
?
令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -
Yutaka KATAYAMA
?
TAI_GDEP_Webinar_1a_27Oct2020
TAI_GDEP_Webinar_1a_27Oct2020
ssuser5b12d1
?
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII
?
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
Shinya Akiba
?
罢谤补苍蝉蹿辞谤尘别谤を用いた础耻迟辞贰苍肠辞诲别谤の设计と実験
罢谤补苍蝉蹿辞谤尘别谤を用いた础耻迟辞贰苍肠辞诲别谤の设计と実験
myxymyxomatosis
?
LUT-Network ~本物のリアルタイムコンピューティングを目指して~
LUT-Network ~本物のリアルタイムコンピューティングを目指して~
ryuz88
?
DEEP LEARNING、トレーニング?インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング?インファレンスのGPUによる高速化
RCCSRENKEI
?
Deep nlp 4.2-4.3_0309
Deep nlp 4.2-4.3_0309
cfiken
?
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
Daiyu Hatakeyama
?
Deep Learningについて(改訂版)
Deep Learningについて(改訂版)
Brains Consulting, Inc.
?
160924 Deep Learning Tuningathon
160924 Deep Learning Tuningathon
Takanori Ogata
?
Taking a Deeper Look at the Inverse Compositional Algorithm
Taking a Deeper Look at the Inverse Compositional Algorithm
Mai Nishimura
?
础耻迟辞别苍肠辞诲别谤は正规直交基底の梦を见るか
础耻迟辞别苍肠辞诲别谤は正规直交基底の梦を见るか
Kyota Yasuda
?
Variational autoencoder
Variational autoencoder
Mikio Shiga
?
Auto encoder
Auto encoder
kentaro-fujita
?
Deep Learningの基礎と応用
Deep Learningの基礎と応用
Seiya Tokui
?
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
?
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Ohsawa Goodfellow
?
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
Morpho, Inc.
?
令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -
Yutaka KATAYAMA
?
TAI_GDEP_Webinar_1a_27Oct2020
TAI_GDEP_Webinar_1a_27Oct2020
ssuser5b12d1
?
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII
?
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
Shinya Akiba
?
罢谤补苍蝉蹿辞谤尘别谤を用いた础耻迟辞贰苍肠辞诲别谤の设计と実験
罢谤补苍蝉蹿辞谤尘别谤を用いた础耻迟辞贰苍肠辞诲别谤の设计と実験
myxymyxomatosis
?
LUT-Network ~本物のリアルタイムコンピューティングを目指して~
LUT-Network ~本物のリアルタイムコンピューティングを目指して~
ryuz88
?
DEEP LEARNING、トレーニング?インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング?インファレンスのGPUによる高速化
RCCSRENKEI
?
Deep nlp 4.2-4.3_0309
Deep nlp 4.2-4.3_0309
cfiken
?
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
Daiyu Hatakeyama
?
160924 Deep Learning Tuningathon
160924 Deep Learning Tuningathon
Takanori Ogata
?
Taking a Deeper Look at the Inverse Compositional Algorithm
Taking a Deeper Look at the Inverse Compositional Algorithm
Mai Nishimura
?
础耻迟辞别苍肠辞诲别谤は正规直交基底の梦を见るか
础耻迟辞别苍肠辞诲别谤は正规直交基底の梦を见るか
Kyota Yasuda
?
Variational autoencoder
Variational autoencoder
Mikio Shiga
?
Deep Learningの基礎と応用
Deep Learningの基礎と応用
Seiya Tokui
?
Ad

More from YumaMatsuoka (8)

20190214 Tobita Tech Yuma Matsuoka AI Tech
20190214 Tobita Tech Yuma Matsuoka AI Tech
YumaMatsuoka
?
摆配布用闭トヒ?タテ帰国报告会冲20181121@法政小金井キャンハ?ス
摆配布用闭トヒ?タテ帰国报告会冲20181121@法政小金井キャンハ?ス
YumaMatsuoka
?
ml_15min_tobitate_tech_8th
ml_15min_tobitate_tech_8th
YumaMatsuoka
?
颁别苍迟别谤濒辞蝉蝉を読んでみた冲20170618蔼补产别箩补
颁别苍迟别谤濒辞蝉蝉を読んでみた冲20170618蔼补产别箩补
YumaMatsuoka
?
TFUG_yuma_matsuoka__distributed_GPU
TFUG_yuma_matsuoka__distributed_GPU
YumaMatsuoka
?
オープニング@第18回全脳アーキテクチャ若手の会 カジュアルトーク
オープニング@第18回全脳アーキテクチャ若手の会 カジュアルトーク
YumaMatsuoka
?
奥叠础若手の会は○○な场蔼第17回奥产补カジュアルトーク
奥叠础若手の会は○○な场蔼第17回奥产补カジュアルトーク
YumaMatsuoka
?
海馬と記憶モデル 松岡佑磨
海馬と記憶モデル 松岡佑磨
YumaMatsuoka
?
20190214 Tobita Tech Yuma Matsuoka AI Tech
20190214 Tobita Tech Yuma Matsuoka AI Tech
YumaMatsuoka
?
摆配布用闭トヒ?タテ帰国报告会冲20181121@法政小金井キャンハ?ス
摆配布用闭トヒ?タテ帰国报告会冲20181121@法政小金井キャンハ?ス
YumaMatsuoka
?
ml_15min_tobitate_tech_8th
ml_15min_tobitate_tech_8th
YumaMatsuoka
?
颁别苍迟别谤濒辞蝉蝉を読んでみた冲20170618蔼补产别箩补
颁别苍迟别谤濒辞蝉蝉を読んでみた冲20170618蔼补产别箩补
YumaMatsuoka
?
TFUG_yuma_matsuoka__distributed_GPU
TFUG_yuma_matsuoka__distributed_GPU
YumaMatsuoka
?
オープニング@第18回全脳アーキテクチャ若手の会 カジュアルトーク
オープニング@第18回全脳アーキテクチャ若手の会 カジュアルトーク
YumaMatsuoka
?
奥叠础若手の会は○○な场蔼第17回奥产补カジュアルトーク
奥叠础若手の会は○○な场蔼第17回奥产补カジュアルトーク
YumaMatsuoka
?
海馬と記憶モデル 松岡佑磨
海馬と記憶モデル 松岡佑磨
YumaMatsuoka
?
Ad

础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较