10. Faster-RCNN?
? Object Detectionと言ったらFaster-RCNN
? SSD/YOLOなんかも有名
? Object Detection系のコンペでは定番
? Open Images Challenge 2018では上位チームは皆Faster-RCNNベース
(https://storage.googleapis.com/openimages/web/challenge.html)
? Ren, S., He, K., Girshick, R., & Sun, J. “Faster r-cnn: Towards real-time object detection with region proposal
networks,” in NIPS, 2015.
36. 20クラス分類 vs 5クラス分類
※ 学習データの二割をvalidation setとした
※ 検証用のモデルはResNet-18?
? K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” in CVPR, pp. 770–778, 2016.
37. 20クラス分類 vs 5クラス分類
※ 学習データの二割をvalidation setとした
※ 検証用のモデルはResNet-18?
仮説通り5クラス分類にすることで大幅に精度向上!
? K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” in CVPR, pp. 770–778, 2016.
39. 事前学習
? CNNの事前学習は様々なタスクで有効
? 目的タスクのデータセットサイズが小さいほど有効
? 事前学習用のデータセットと目的タスクのデータセッ
トの分布が近いほど有効
→ 本コンペのデータセットサイズは比較的小さい(約2k枚)
→ MVD?/BDD100K?: 大規模な交通シーンのデータセット
? G. Neuhold, T. Ollmann, S. Rota Bulo, and P. Kontschieder,
“The mapillary vistas dataset for semantic understanding of street scenes,” in ICCV, 2017.
? F. Yu, W. Xian, Y. Chen, F. Liu, M. Liao, V. Madhavan, and T. Darrell,
“BDD100K: A diverse driving video database with scalable annotation tooling,” in CVPR, 2018.
43. Data Distillation?
? 半教師あり学習の一種
? 学習済みモデルにオブジェクト検出部門のラベルを予測
させ、予測結果を擬似ラベルとする
? 得られた疑似ラベルはセグメンテーション部門のデータと一緒に
学習に使う
? I. Radosavovic, P. Dollar, R. B. Girshick, G. Gkioxari, and K. He,
“Data distillation: Towards omni-supervised learning,” in CVPR, pp.4119–4128, 2018.