アンサンブル #
アンサンブル学習は複数の弱学習器を組み合わせて、単体モデルよりも精度と安定性を高める枠組みです。
章で扱う代表手法 #
- バギング (Bagging): ブートストラップサンプリングで分散を削減
- ランダムフォレスト: 決定木 + バギングで汎化性能を向上
- AdaBoost / Gradient Boosting: 誤差を逐次修正するブースティング系
- スタッキング: 異なる種類の学習器をメタモデルで統合
実務でのメリット #
- ベースラインを簡単に底上げできる
- 予測のばらつきを抑え、安定した結果を得られる
- OOB 推定や交差検証で汎化性能を効率的に評価できる
まとめ #
- Bagging / Boosting / Stacking の 3 系統を押さえておけば、多くの課題で強力なベースラインを作れる
- feature importance などの解釈指標と合わせて使うことで、意思決定にも活用しやすくなる