2.1.5
Regresión Elastic Net
Resumen
- Elastic Net combina las penalizaciones L1 (lasso) y L2 (ridge) para equilibrar esparsidad y estabilidad.
- Permite que grupos de características fuertemente correlacionadas se conserven mientras ajusta su importancia de forma conjunta.
- Ajustar \(\alpha\) y
l1_ratiocon validación cruzada facilita encontrar el equilibrio entre sesgo y varianza. - Estandarizar los datos y permitir suficientes iteraciones mejora la estabilidad numérica del optimizador.
Intuicion #
Este metodo se entiende mejor al conectar sus supuestos con la estructura de los datos y su efecto en la generalizacion.
Explicacion Detallada #
Formulación matemática #
Elastic Net minimiza
$$ \min_{\boldsymbol\beta, b} \sum_{i=1}^{n} \left( y_i - (\boldsymbol\beta^\top \mathbf{x}_i + b) \right)^2 + \alpha \left( \rho \lVert \boldsymbol\beta \rVert_1 + (1 - \rho) \lVert \boldsymbol\beta \rVert_2^2 \right), $$donde \(\alpha > 0\) controla la fuerza de regularización y \(\rho \in [0,1]\) (l1_ratio) define la mezcla entre L1 y L2. Al variar \(\rho\) podemos transitar entre el comportamiento de ridge y lasso.
Experimentos con Python #
Utilizamos ElasticNetCV para ajustar simultáneamente \(\alpha\) y l1_ratio, y luego inspeccionamos los coeficientes y el rendimiento.
| |
Interpretación de los resultados #
ElasticNetCVevalúa automáticamente múltiples combinaciones L1/L2 y selecciona un buen punto medio.- Cuando varias características correlacionadas permanecen, sus coeficientes tienden a alinearse en magnitud, lo que facilita la interpretación.
- Si la convergencia es lenta, estandarice las entradas o aumente
max_iter.
Referencias #
- Zou, H., & Hastie, T. (2005). Regularization and Variable Selection via the Elastic Net. Journal of the Royal Statistical Society: Series B, 67(2), 301–320.
- Friedman, J., Hastie, T., & Tibshirani, R. (2010). Regularization Paths for Generalized Linear Models via Coordinate Descent. Journal of Statistical Software, 33(1), 1–22.