Eu sou novo no Machine Learning e estou tentando aprender sozinho. Recentemente, eu estava lendo algumas notas de aula e tinha uma pergunta básica.
O slide 13 diz que "a estimativa de mínimos quadrados é igual à estimativa de máxima verossimilhança em um modelo gaussiano". Parece que é algo simples, mas não consigo ver isso. Alguém pode explicar o que está acontecendo aqui? Estou interessado em ver a matemática.
Mais tarde tentarei ver também o ponto de vista probabilístico da regressão de Ridge e Lasso; portanto, se houver alguma sugestão que me ajude, isso também será muito apreciado.
Respostas:
No modelo
onde , o loglikelihood de Y | X para uma amostra de n indivíduos é (até uma constante aditiva)ε ~ N( 0 , σ2) Y| X n
visto como uma função de apenas , o maximizador é exatamente o que minimizaβ
isso torna clara a equivalência?
fonte
n/2 log(2 *pi)