Estou um pouco confuso com uma palestra sobre regressão linear dada por Andrew Ng no Coursera sobre aprendizado de máquina. Lá, ele deu uma função de custo que minimiza a soma dos quadrados como:
Eu entendo de onde vem o . Eu acho que ele fez isso para que, quando ele executasse derivada no termo quadrado, os 2 no termo quadrado fossem cancelados com a metade. Mas não entendo de onde vêm os . 1
Por que precisamos fazer ? Na regressão linear padrão, não temos, simplesmente minimizamos os resíduos. Por que precisamos aqui?
regression
machine-learning
loss-functions
SmallChess
fonte
fonte
Respostas:
Como você percebe, certamente não precisamos do fator para obter regressão linear. É claro que os minimizadores serão exatamente os mesmos, com ou sem ele. Um motivo típico para normalizar por é para que possamos visualizar a função de custo como uma aproximação ao "erro de generalização", que é a perda quadrada esperada em um novo exemplo escolhido aleatoriamente (não no conjunto de treinamento):m1/m m
Suponha que sejam amostrados iid de alguns distribuição. Então, para grande , esperamos que m 1(X,Y),(X(1),Y(1)),…,(X(m),Y(m)) m
Mais precisamente, pela Lei Forte dos Grandes Números, temos com probabilidade 1.
Nota: Cada uma das instruções acima refere-se a qualquer , escolhido sem observar o conjunto de treinamento. Para aprendizado de máquina, queremos que essas instruções sejam válidas para alguns escolhidos com base em seu bom desempenho no conjunto de treinamento. Essas alegações ainda podem ser mantidas nesse caso, embora seja necessário fazer algumas suposições sobre o conjunto de funções , e precisaremos de algo mais forte do que a Lei de grandes números.θ θ^ {hθ|θ∈Θ}
fonte
Você não precisa . A função de perda tem o mesmo mínimo, independentemente de você incluir o ou suprimi-lo. Se você incluí-lo, obtém a boa interpretação de minimizar (metade) o erro médio por ponto de dados. Em outras palavras, você está minimizando a taxa de erro em vez do erro total.1m
Considere comparar o desempenho em dois conjuntos de dados de tamanhos diferentes. A soma bruta de erros ao quadrado não é diretamente comparável, pois conjuntos de dados maiores tendem a ter mais erro total devido ao seu tamanho. Por outro lado, o erro médio por ponto de dados é .
Certo. Seu conjunto de dados é uma coleção de pontos de dados . Depois de ter um modelo , o erro de mínimos quadrados de em um único ponto de dados é{xi,yi} h h
é claro que isso é diferente para cada ponto de dados. Agora, se simplesmente resumirmos os erros (e multiplicarmos pela metade pela razão que você descreve), obteremos o erro total
mas se dividirmos pelo número de somas, obtemos o erro médio por ponto de dados
O benefício do erro médio é que, se tivermos dois conjuntos de dados e de tamanhos diferentes , poderemos comparar os erros médios, mas não os erros totais. Pois se o segundo conjunto de dados for, digamos, dez vezes o tamanho do primeiro, esperaríamos que o erro total fosse cerca de dez vezes maior para o mesmo modelo. Por outro lado, o erro médio divide o efeito do tamanho do conjunto de dados e, portanto, esperamos que modelos de desempenho semelhante tenham erros médios semelhantes em diferentes conjuntos de dados.{xi,yi} {x′i,y′i}
fonte