2.1.7
Regresión por cuantiles
Resumen
- La regresión por cuantiles estima directamente cuantiles arbitrarios —mediana, percentil 10, etc.— en lugar de limitarse a la media.
- Minimizar la pérdida pinball aporta robustez frente a valores atípicos y permite tratar ruido asimétrico.
- Se pueden ajustar modelos independientes por cuantil y combinarlos para construir intervalos de predicción.
- La estandarización y la regularización ayudan a estabilizar la convergencia y a mantener el poder de generalización.
Intuicion #
Este metodo se entiende mejor al conectar sus supuestos con la estructura de los datos y su efecto en la generalizacion.
Explicacion Detallada #
Formulación matemática #
Con residuo \(r = y - \hat{y}\) y nivel de cuantil \(\tau \in (0, 1)\), la pérdida pinball se define como
$$ L_\tau(r) = \begin{cases} \tau r & (r \ge 0) \\ (\tau - 1) r & (r < 0) \end{cases} $$Minimizar esta pérdida produce el predictor lineal del cuantil \(\tau\). Para \(\tau = 0.5\) se recupera la mediana, equivalente a la regresión por desviaciones absolutas.
Experimentos con Python #
Usamos QuantileRegressor para estimar los cuantiles 0.1, 0.5 y 0.9, y los comparamos con mínimos cuadrados ordinarios.
| |

Interpretación de los resultados #
- Cada cuantil produce una línea distinta, capturando la dispersión vertical de los datos.
- Frente al modelo enfocado en la media (OLS), la regresión por cuantiles se adapta al ruido sesgado.
- Combinar varios cuantiles genera intervalos de predicción que comunican la incertidumbre relevante para decidir.
Referencias #
- Koenker, R., & Bassett, G. (1978). Regression Quantiles. Econometrica, 46(1), 33–50.
- Koenker, R. (2005). Quantile Regression. Cambridge University Press.