4.3.11
Cohen's Kappa
Resumo
- Cohen’s κ mede concordancia acima do esperado pelo acaso.
- E mais robusto que Accuracy em dados desbalanceados.
- Util quando a nocao de acordo e importante.
1. Definicao #
$$ \kappa = \frac{p_o - p_e}{1 - p_e} $$onde (p_o) e a concordancia observada e (p_e) a concordancia esperada ao acaso.
2. Uso #
- Comparar modelos em cenarios desbalanceados.
- Medir acordo entre avaliadores ou sistemas.