Cohen's Kappa

4.3.11

Cohen's Kappa

อัปเดต 2020-05-20 อ่าน 1 นาที
สรุป
  • Cohen’s κ วัดระดับความสอดคล้องที่มากกว่าความบังเอิญ
  • แข็งแรงกว่า Accuracy เมื่อข้อมูลไม่สมดุล
  • เหมาะเมื่ออยากวัด “agreement”

1. นิยาม #

$$ \kappa = \frac{p_o - p_e}{1 - p_e} $$

โดย (p_o) คือความสอดคล้องที่สังเกตได้ และ (p_e) คือความสอดคล้องที่คาดจากความบังเอิญ


2. การใช้งาน #

  • ใช้เปรียบเทียบโมเดลเมื่อคลาสไม่สมดุล
  • วัดความเห็นตรงกันของผู้ประเมินหรือระบบ