論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...Kazuki Adachi
?
Selvaraju, Ramprasaath R., et al. "Grad-cam: Visual explanations from deep networks via gradient-based localization." The IEEE International Conference on Computer Vision (ICCV), 2017, pp. 618-626
機械学習の社会実装では、予測精度が高くても、機械学習がブラックボックであるために使うことができないということがよく起きます。
このスライドでは機械学習が不得意な予測結果の根拠を示すために考案されたLIMEの論文を解説します。
Ribeiro, Marco Tulio, Sameer Singh, and Carlos Guestrin. "" Why should i trust you?" Explaining the predictions of any classifier." Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. 2016.
5. 2 RELATED WORK 5
? data shift 下の堅牢性
訓練時の特定の加工を学習してしまう
例:あるブラーを覚えても未知のブラーに対応不可
? data shift 下のキャリブレーション
calibrated → 分類器が適切に正確性を予測できている
例:信頼度70%の画像のうち、70%が正解
data shift によってキャリブレーションは低下
複数のクラス分類予想を単純にアンサンブルすると改善
6. 2 RELATED WORK 6
?水増し(augmentation)
水増しは大いに汎化に効果がある
切り取り?平行移動がよく使われる
manifold intrusion → ミックスした画像と元画像の特徴が矛盾し
学習不足に陥ること
15. 3 AUGMIX 15
? 実際は元画像に2回AugMix処理をして画像を2つ得る
→損失関数で評価する
AugMix also uses a consistency loss between
augmentations that encourages invariance to
semantic perturbations.
? ランダム性の中でも一貫性を保つ?
? 元画像と乖離しないようにする?
正直よくわからない???
https://hotcocoastudy.hatenablog.jp/entry/2019/12/07/143506