Eu tenho 3 conjuntos de dados do mesmo sistema. Mas para o primeiro, tenho 21 medições. Para o segundo e o terceiro, tenho apenas 9 medições. Agora eu criei um modelo usando esses 3 conjuntos de dados (então 3 modelos, 1 por conjunto de dados). Quando eu quero comparar o erro entre esses dois conjuntos de dados. Existe uma clara vantagem usando o MSE em vez do LSE (erro mínimo ao quadrado). Na internet, não encontro uma resposta clara para isso. Quais são as principais vantagens?
fonte
MSE (Mean Squared Error) é o erro quadrático médio, ou seja, a diferença entre o estimador e o estimado. MMSE (Minumum Mean Square Error) é um estimador que minimiza MSE. Portanto, LSE e MMSE são comparáveis, pois ambos são estimadores. LSE e MSE não são comparáveis, conforme apontado por Anil. Existem algumas diferenças importantes entre MMSE e LSE, teoricamente.
O MMSE é ideal para todas as realizações do processo, enquanto o LSE é ideal para os dados fornecidos. Isso ocorre porque o MMSE usa médias de conjunto (expectativa) enquanto o LSE usa a média de tempo.
Na prática, o que isso significa é: 1. Para o MMSE, você precisa conhecer as propriedades estatísticas de segunda ordem dos dados (correlação cruzada e autocorrelação), enquanto para o LSE, você precisa apenas dos dados. A autocorrelação e a correlação cruzada são computacionalmente caras e um cálculo preciso precisa de muitos pontos / experiências de dados. 2. Os coeficientes do MMSE são ideais para o processo, portanto, são ideais para todos os conjuntos de dados do processo, enquanto o LSE é ideal apenas para o conjunto de dados específico. Os coeficientes de LSE não permanecerão ideais se o conjunto de dados for alterado.
Observe também que o MMSE aborda o LSE se o processo for ergódico e o número de pontos de dados se aproxima do infinito.
fonte
Acredito que a atual primeira resposta de Anil Narassiguin é enganosa. Ele diz na parte inferior: "O LSE é um método que constrói um modelo e o MSE é uma métrica que avalia o desempenho do seu modelo".
Isto simplesmente não é verdade. Basicamente, ambas são funções de perda / custo . Ambos calculam o erro das previsões atuais enquanto iteram para que os pesos possam ser otimizados.
No entanto, o LSE é usado para problemas de classificação, enquanto o MSE é usado para problemas de regressão. Eu acredito que essa é a principal diferença entre esses dois, então você precisa descobrir que tipo de problema você tem: regressão de classificação.
fonte