2.1.10
Regresión con máquinas de soporte vectorial (SVR)
Resumen
- SVR extiende las SVM a regresión, tratando los errores dentro de un tubo ε-insensible como cero para reducir el impacto de los valores atípicos.
- Gracias a los kernels puede capturar relaciones no lineales mientras mantiene el modelo compacto mediante vectores de soporte.
- Los hiperparámetros
C,epsilonygammacontrolan el equilibrio entre generalización y suavidad. - La estandarización de las características es esencial; encapsular el preprocesado y el aprendizaje en un pipeline garantiza transformaciones consistentes.
Intuicion #
Este metodo se entiende mejor al conectar sus supuestos con la estructura de los datos y su efecto en la generalizacion.
Explicacion Detallada #
Formulación matemática #
El problema de optimización es
$$ \min_{\mathbf{w}, b, \boldsymbol{\xi}, \boldsymbol{\xi}^*} \frac{1}{2} \|\mathbf{w}\|^2 + C \sum_{i=1}^{n} (\xi_i + \xi_i^*) $$sujeto a
$$ \begin{aligned} y_i - (\mathbf{w}^\top \phi(\mathbf{x}_i) + b) &\le \epsilon + \xi_i, \\ (\mathbf{w}^\top \phi(\mathbf{x}_i) + b) - y_i &\le \epsilon + \xi_i^*, \\ \xi_i, \xi_i^* &\ge 0, \end{aligned} $$donde \(\phi\) es la transformación inducida por el kernel elegido. Resolver el dual revela los vectores de soporte y sus coeficientes.
Experimentos con Python #
Ejemplo de SVR combinado con StandardScaler dentro de un pipeline.
| |
Interpretación de los resultados #
- El pipeline escala los datos de entrenamiento con su media y varianza y aplica la misma transformación al conjunto de prueba.
predcontiene las predicciones; ajustarepsilonyCmodifica el equilibrio entre sobreajuste y subajuste.- Aumentar
gammaen el kernel RBF enfatiza patrones locales, mientras que valores pequeños producen funciones más suaves.
Referencias #
- Smola, A. J., & Schölkopf, B. (2004). A Tutorial on Support Vector Regression. Statistics and Computing, 14(3), 199–222.
- Vapnik, V. (1995). The Nature of Statistical Learning Theory. Springer.