14. SHAP (SHapley Additive exPlanations), for example
複雑なモデルの予測結果 f(x) を説明したい付近にてシンプルなモデル g で近似
x = (1.2, 3.7, 0.0)
x’ = (1, 1, 0)
f(x)
hx
(x’)
g(x’) = φ0
+ Σφi
?x’i
φ ∈ R, モデルへの寄与(effect)
Lundberg, Scott M., and Su-In Lee. "A unified approach to interpreting model predictions." Advances in Neural Information Processing Systems. 2017.
著者によるPythonでの実装 : https://github.com/slundberg/shap
R
15. SHAP (SHapley Additive exPlanations), for example
解説: この例は「チームがプレイヤーに Man of the Match賞を獲得させるかどうかを予測」です.
予測値は 0.7 です.base_valueは0.4979です.
- 予測の向上(正の寄与) → 特徴量の値はピンク色
- 予測を減少(負の寄与) → 特徴量の値は青色
- バーの長さが特徴量の効果の大きさ
ピンク色のバーの長さから青いバーの長さを引くと,ベース値から出力までの距離に等しくなります.
(実際の図はお見せできないので例にて)
Lundberg, Scott M., and Su-In Lee. "A unified approach to interpreting model predictions." Advances in Neural Information Processing Systems. 2017.
著者によるPythonでの実装 : https://github.com/slundberg/shap