4.3.1
Accuracy
สรุป
- Accuracy วัดสัดส่วนการทำนายถูกต้องทั้งหมด
- เมื่อข้อมูลไม่สมดุลอาจทำให้เข้าใจผิด จึงควรใช้ตัวชี้วัดอื่นร่วมด้วย
- มักใช้คู่กับ Balanced Accuracy, Precision/Recall และ ROC/PR
1. นิยาม #
ให้ (TP, FP, FN, TN) จาก confusion matrix:
$$ \mathrm{Accuracy} = \frac{TP + TN}{TP + TN + FP + FN} $$Accuracy เข้าใจง่าย แต่ไม่สะท้อนผลของคลาสส่วนน้อยได้ดี
2. คำนวณด้วย Python 3.13 #
| |
| |
3. ข้อควรระวัง #
- คลาสไม่สมดุล: Accuracy สูงอาจซ่อน recall ที่ต่ำของคลาสส่วนน้อย
- ตัวชี้วัดเสริม: Precision/Recall/F1, Balanced Accuracy, ROC-AUC หรือ PR-AUC
- Confusion matrix: ช่วยเห็นรูปแบบความผิดพลาดชัดเจน
4. สรุป #
- Accuracy เหมาะเป็นตัวชี้วัดภาพรวมแบบรวดเร็ว
- ในข้อมูลไม่สมดุลควรใช้ร่วมกับตัวชี้วัดอื่นเสมอ