17. Chainerによる実験(1/3)
Conv1 / ReLU
LRN
Max pool
Conv2 / ReLU
LRN
Max pool
Conv3 / ReLU
Conv4 / ReLU
Conv5 / ReLU
Max Pool
FC6 / ReLU
FC7 / ReLU
FC (latent) / Sigmoid
FC (class)
特徴抽出部分はAlexNet (conv1 - fc7)を使用。
ImageNetの1000クラス分類問題でトレーニング済みの
パラメータを初期値に利用。
Classification Loss Banarization Loss Barancing Loss
隠れ層と分類用の全結合層を追加。
隠れ層は2値ベクトルの出力に使うため、
活性化関数はSigmoid関数を使用。
通常の分類タスクの損失に加え、
2値化のための損失2項を追加
18. Chainerによる実験(2/3)
項目 値 備考
最適化アルゴリズム
Momentum SGD
(lr = 0.001, momentum=0.9)
16epoch終了後
lr *= 0.1
隠れ層のノード数 K
(=ビット長)
12
バッチサイズ 32
重み正則化 0.0005
エポック数 32 50000 iterations
データセット
CIFAR-10 training set
(10 classes - 50,000 images)
? 基本的に論文と同じ値を設定
? 隠れ層のノード数は論文中最も小さい12を採用