2.1.5
Regressão Elastic Net
Resumo
- O Elastic Net combina as penalidades L1 (Lasso) e L2 (Ridge) para equilibrar esparsidade e estabilidade.
- Ele pode reter grupos de características fortemente correlacionadas enquanto ajusta sua importância coletivamente.
- O ajuste de \(\alpha\) e
l1_ratiocom validação cruzada facilita encontrar o equilíbrio entre viés e variância. - A padronização das características e a permissão de iterações suficientes melhoram a estabilidade numérica do otimizador.
Intuição #
Este método deve ser interpretado por meio de suas suposições, condições dos dados e como as escolhas de parâmetros afetam a generalização.
Explicação Detalhada #
Formulação Matemática #
O Elastic Net minimiza
$$ \min_{\boldsymbol\beta, b} \sum_{i=1}^{n} \left( y_i - (\boldsymbol\beta^\top \mathbf{x}_i + b) \right)^2 + \alpha \left( \rho \lVert \boldsymbol\beta \rVert_1 + (1 - \rho) \lVert \boldsymbol\beta \rVert_2^2 \right), $$onde \(\alpha > 0\) é a intensidade de regularização e \(\rho \in [0,1]\) (l1_ratio) controla o equilíbrio entre L1 e L2. Movendo \(\rho\) entre 0 e 1 é possível explorar o espectro entre Ridge e Lasso.
Experimentos em Python #
Abaixo usamos o ElasticNetCV para escolher simultaneamente \(\alpha\) e l1_ratio, e em seguida examinamos os coeficientes e o desempenho.
| |
Leitura dos resultados #
- O
ElasticNetCVavalia automaticamente múltiplas combinações L1/L2 e escolhe um bom equilíbrio. - Quando características correlacionadas sobrevivem juntas, seus coeficientes tendem a se alinhar em magnitude, o que simplifica a interpretação.
- Se a convergência for lenta, padronize as entradas ou aumente o
max_iter.
Referências #
- Zou, H., & Hastie, T. (2005). Regularization and Variable Selection via the Elastic Net. Journal of the Royal Statistical Society: Series B, 67(2), 301–320.
- Friedman, J., Hastie, T., & Tibshirani, R. (2010). Regularization Paths for Generalized Linear Models via Coordinate Descent. Journal of Statistical Software, 33(1), 1–22.