2.10
モデル解釈性
まとめ
- SHAP・LIME・部分依存プロットなど、機械学習モデルの予測を人間が理解できる形で説明する手法を学ぶ。
- グローバル解釈(モデル全体の傾向)とローカル解釈(個別予測の根拠)の違いを理解する。
- 解釈結果をビジネス説明やモデル改善に活かすワークフローを身に付ける。
直感 #
高精度なモデルほど内部は複雑になり、「なぜその予測になったか」が見えにくい。解釈性手法は、ブラックボックスモデルの中身を覗き、特徴量ごとの貢献度や予測の根拠を可視化する技術です。
詳細な解説 #
このチャプターで学べること #
- SHAP — ゲーム理論に基づく特徴量の貢献度分解。グローバル・ローカル両方の解釈が可能
- PDP / ICE — 特定の特徴量を変化させたときの予測への影響を可視化する手法
これがわかるとできること #
- モデルの予測根拠をステークホルダーに説明できる
- 特徴量の重要度だけでなく「どう効いているか」を方向性と非線形性込みで把握できる
- モデルのバグや意図しない学習パターンを発見できる
学習の進め方 #
- まず SHAP でローカル・グローバル解釈の基本を押さえる
- PDP / ICE で特徴量の効果を可視化する方法を理解する