アンサンブル #
アンサンブル学習とは、複数のモデル(弱学習器)を組み合わせて、単体のモデルよりも精度や安定性を高める手法の総称です。
「1人の専門家よりも、多数の意見をまとめたほうが良い判断ができる」──その直感を機械学習に取り入れたのがアンサンブル学習です。
なぜアンサンブルを学ぶのか? #
- 単一モデルの弱点を補える(決定木は過学習しやすいが、ランダムフォレストは安定)
- 予測精度を底上げできる(ブースティングは難しいサンプルを重点的に学ぶ)
- 幅広い応用で活躍(画像・テキスト・表形式データまで対応可能)
- Kaggle などのデータコンペで「上位の常連手法」
アンサンブルでできること #
- 住宅価格の予測:ランダムフォレストや勾配ブースティングで高精度な回帰
- 顧客の離脱予測:AdaBoost で難しいケースを重点学習
- 不正検知・リスク評価:複数モデルの予測を統合して堅牢性を確保
この章で学ぶ内容 #
- RandomForest(バギング系)
多数の決定木をブートストラップサンプルで学習し、多数決や平均で予測 - AdaBoost(ブースティング系)
誤分類(誤差)の大きなサンプルに重みを置き、弱学習器を逐次強化 - Gradient Boosting(ブースティング系)
損失関数の勾配(残差)を逐次近似し、段階的に予測を改善 - Stacking(スタッキング)
複数種類のモデルを組み合わせ、メタ学習器で最終予測を行う
まとめ #
- アンサンブル学習は「多数の弱い学習器を組み合わせて強い学習器を作る」考え方
- Bagging(並列で木を育てる)、Boosting(誤差を修正しながら足す)、Stacking(異種モデルを統合)の3系統が代表
- 実務でも学術でも「とりあえず使うと強い」手法であり、機械学習の中核をなす