Ao executar a classificação SVM linear, geralmente é útil normalizar os dados de treinamento, por exemplo, subtraindo a média e dividindo pelo desvio padrão, e depois dimensione os dados de teste com a média e o desvio padrão dos dados de treinamento. Por que esse processo muda drasticamente o desempenho da classificação?
machine-learning
svm
standardization
Qinghua
fonte
fonte
Respostas:
Eu acho que isso pode ser esclarecido através de um exemplo. Digamos que você tenha dois vetores de entrada: X1 e X2. e digamos que X1 tenha intervalo (0,1 a 0,8) e X2 tenha intervalo (3000 a 50000). Agora seu classificador SVM será um limite linear no plano X1-X2. Minha afirmação é que a inclinação do limite de decisão linear não deve depender do intervalo de X1 e X2, mas da distribuição de pontos.
Agora vamos fazer uma previsão sobre o ponto (0.1, 4000) e (0.8, 4000). Quase não haverá diferença no valor da função, tornando o SVM menos preciso, pois terá menos sensibilidade aos pontos na direção X1.
fonte
O SVM tenta maximizar a distância entre o plano de separação e os vetores de suporte. Se um recurso (ou seja, uma dimensão neste espaço) tiver valores muito grandes, ele dominará os outros recursos ao calcular a distância. Se você redimensionar todos os recursos (por exemplo, para [0, 1]), todos eles terão a mesma influência na métrica da distância.
fonte