Qual é a diferença entre mínimos quadrados e regressão linear? É a mesma coisa?
regression
least-squares
terminology
bbadyalina
fonte
fonte
Respostas:
A regressão linear assume uma relação linear entre a variável independente e a variável dependente. Não diz como o modelo é montado. O encaixe menos quadrado é simplesmente uma das possibilidades. Outros métodos para treinar um modelo linear estão no comentário.
Os mínimos quadrados não lineares são comuns ( https://en.wikipedia.org/wiki/Non-linear_least_squares ). Por exemplo, o popular algoritmo Levenberg – Marquardt resolve algo como:
É uma otimização de mínimos quadrados, mas o modelo não é linear.
Eles não são a mesma coisa .
fonte
Além da resposta correta do @Estudante T, quero enfatizar que os mínimos quadrados são uma função de perda potencial para um problema de otimização, enquanto a regressão linear é um problema de otimização.
Dado um determinado conjunto de dados, a regressão linear é usada para encontrar a melhor função linear possível, o que está explicando a conexão entre as variáveis.
Nesse caso, o "melhor" possível é determinado por uma função de perda, comparando os valores previstos de uma função linear com os valores reais no conjunto de dados. Mínimos Quadrados é uma possível função de perda.
O artigo da wikipedia de mínimos quadrados também mostra imagens no lado direito, que mostram o uso de mínimos quadrados para outros problemas além da regressão linear, como:
O gif a seguir do artigo da wikipedia mostra várias funções polinomiais diferentes ajustadas a um conjunto de dados usando mínimos quadrados. Apenas um deles é linear (polinômio de 1). Isso foi retirado do artigo da wikipedia em alemão para o tópico.
fonte