2.1.10
Regressão por Vetores de Suporte (SVR)
Resumo
- A Regressão por Vetores de Suporte estende os SVMs para regressão, tratando erros dentro de um tubo ε-insensível como zero para reduzir o impacto de outliers.
- Os métodos de kernel permitem relações não lineares flexíveis, mantendo o modelo compacto por meio dos vetores de suporte.
- Os hiperparâmetros
C,epsilonegammagovernam o equilíbrio entre generalização e suavidade. - O escalonamento de variáveis é essencial; encapsular pré-processamento e aprendizado em um pipeline garante transformações consistentes.
Intuição #
Este método deve ser interpretado através de suas suposições, condições dos dados e como as escolhas de parâmetros afetam a generalização.
Explicação Detalhada #
Formulação Matemática #
O problema de otimização é
$$ \min_{\mathbf{w}, b, \boldsymbol{\xi}, \boldsymbol{\xi}^*} \frac{1}{2} \|\mathbf{w}\|^2 + C \sum_{i=1}^{n} (\xi_i + \xi_i^*) $$sujeito a
$$ \begin{aligned} y_i - (\mathbf{w}^\top \phi(\mathbf{x}_i) + b) &\le \epsilon + \xi_i, \\ (\mathbf{w}^\top \phi(\mathbf{x}_i) + b) - y_i &\le \epsilon + \xi_i^*, \\ \xi_i, \xi_i^* &\ge 0, \end{aligned} $$onde \(\phi\) mapeia as entradas em um espaço de características por meio do kernel escolhido. A resolução do dual fornece os vetores de suporte e os coeficientes.
Experimentos em Python #
Este exemplo demonstra a SVR combinada com StandardScaler em um pipeline.
| |
Interpretação dos resultados #
- O pipeline escalona os dados de treino usando sua média e variância, e então aplica a mesma transformação ao conjunto de teste.
predcontém as previsões para as variáveis de teste; ajustarepsiloneCregula o equilíbrio entre sobreajuste e subajuste.- Aumentar o
gammado kernel RBF foca em padrões locais, enquanto valores menores produzem funções mais suaves.
Referências #
- Smola, A. J., & Schölkopf, B. (2004). A Tutorial on Support Vector Regression. Statistics and Computing, 14(3), 199–222.
- Vapnik, V. (1995). The Nature of Statistical Learning Theory. Springer.