เอ็นเซมเบิล #
Ensemble Learning คือการนำโมเดลหลายตัวมารวมกันเพื่อลดความเอนเอียงหรือลดความแปรปรวน ผลคือได้โมเดลที่แม่นยำและนิ่งขึ้น
ประเภทหลัก #
- Bagging / Random Forest: สุ่มตัวอย่างและฟีเจอร์เพื่อสร้างโมเดลหลายตัวแล้วเฉลี่ยผล
- Boosting (AdaBoost, Gradient Boosting, XGBoost, LightGBM): ฝึกโมเดลอย่างต่อเนื่องโดยแก้ไขข้อผิดพลาดของตัวก่อนหน้า
- Stacking / Blending: ใช้โมเดลอีกชั้นรวบรวมผลจากโมเดลฐาน
ใช้เมื่อไหร่ #
- เมื่อตัวแบบเดี่ยวๆ มีความเอนเอียงหรือแปรปรวนสูง
- เมื่อต้องการจัดการข้อมูลที่ซับซ้อนโดยไม่ออกแบบฟีเจอร์เพิ่มมาก
- เมื่ออยากเพิ่มความน่าเชื่อถือของการทำนาย
เคล็ดลับ #
- เลือกโมเดลฐานที่ “แตกต่างกันจริง” เพื่อเพิ่มประโยชน์จากการรวม
- ระวังต้นทุนการฝึกสูงขึ้นและความยากในการตีความผล
- ใช้ cross-validation เพื่อวัดประสิทธิภาพ ensemble ได้แม่นยำขึ้น