4.3.11
Cohen's Kappa
สรุป
- Cohen’s κ วัดระดับความสอดคล้องที่มากกว่าความบังเอิญ
- แข็งแรงกว่า Accuracy เมื่อข้อมูลไม่สมดุล
- เหมาะเมื่ออยากวัด “agreement”
1. นิยาม #
$$ \kappa = \frac{p_o - p_e}{1 - p_e} $$โดย (p_o) คือความสอดคล้องที่สังเกตได้ และ (p_e) คือความสอดคล้องที่คาดจากความบังเอิญ
2. การใช้งาน #
- ใช้เปรียบเทียบโมเดลเมื่อคลาสไม่สมดุล
- วัดความเห็นตรงกันของผู้ประเมินหรือระบบ