4.2.6
R² ajustado
Resumen
- El R² ajustado corrige el R² clásico según el número de variables, reduciendo el optimismo cuando el modelo se complica.
- Calcula R² y R² ajustado en Python para ver cómo divergen al añadir predictores.
- Entiende sus limitaciones con pocas muestras y cómo combinarlo con otros criterios.
1. Definición #
$$ \mathrm{R}^2_{\mathrm{aj}} = 1 - (1 - R^2)\frac{n - 1}{n - p - 1} $$- \(n\): número de muestras, \(p\): número de predictores.
- Si \(p\) aumenta y el ajuste no mejora, el término hace descender el R² ajustado.
2. Ejemplo en Python #
| |
Asegúrate de que \(n - p - 1 > 0\); si no, reduce variables o amplía el conjunto de validación.
3. Cuándo utilizarlo #
- Selección de variables: desalienta añadir predictores irrelevantes; si el R² ajustado baja, la nueva variable aporta ruido.
- Muestras pequeñas: las fluctuaciones aumentan; valida con cross-validation para confirmar mejoras.
- Comparar modelos: dentro del mismo dataset, recompensa soluciones más parsimoniosas.
4. Relación con otras métricas #
| Métrica | Ventaja | Precaución |
|---|---|---|
| R² | Explicación de varianza intuitiva | Siempre crece al añadir variables |
| R² ajustado | Penaliza el número de predictores | Inestable con muestras muy pequeñas |
| AIC / BIC | Likelihood + penalización | Requiere supuestos de verosimilitud correctos |
Resumen #
- El R² ajustado modera el R² penalizando la complejidad, y revela si realmente compensa añadir variables.
- Úsalo junto a R², AIC/BIC o validación cruzada para juzgar la calidad del modelo.
- Vigila la relación muestra/variables; la métrica solo se comporta bien si el denominador permanece positivo.