Cohen's Kappa

4.3.11

Cohen's Kappa

Atualizado 2020-05-20 Leitura 1 min
Resumo
  • Cohen’s κ mede concordancia acima do esperado pelo acaso.
  • E mais robusto que Accuracy em dados desbalanceados.
  • Util quando a nocao de acordo e importante.

1. Definicao #

$$ \kappa = \frac{p_o - p_e}{1 - p_e} $$

onde (p_o) e a concordancia observada e (p_e) a concordancia esperada ao acaso.


2. Uso #

  • Comparar modelos em cenarios desbalanceados.
  • Medir acordo entre avaliadores ou sistemas.