Eu pesquisei sobre a regressão Bayesian Ridge na Internet, mas a maior parte do resultado que me tornei é sobre a regressão linear bayesiana. Gostaria de saber se são as mesmas coisas, porque a fórmula parece bastante semelhante
fonte
Eu pesquisei sobre a regressão Bayesian Ridge na Internet, mas a maior parte do resultado que me tornei é sobre a regressão linear bayesiana. Gostaria de saber se são as mesmas coisas, porque a fórmula parece bastante semelhante
A regressão de Ridge usa regularização com a norma , enquanto a regressão bayesiana é um modelo de regressão definido em termos probabilísticos, com prévios explícitos nos parâmetros. A escolha dos anteriores pode ter o efeito de regularização, por exemplo, o uso dos anteriores de Laplace para coeficientes é equivalente à regularização de . Eles não são os mesmos, porque a regressão de cume é um tipo de modelo de regressão, e a abordagem bayesiana é uma maneira geral de definir e estimar modelos estatísticos que podem ser aplicados a diferentes modelos.
O modelo de regressão de Ridge é definido como
No cenário bayesiano, estimamos a distribuição posterior usando o teorema de Bayes
Regressão de Ridge significa assumir a probabilidade Normal e Normal antes dos parâmetros. Depois de deixar cair a constante de normalização, a função de densidade de log da distribuição normal é
Agora você pode ver que maximizar a probabilidade normal de log, com anteriores normais, é equivalente a minimizar a perda ao quadrado, com penalidade de crista
Para ler mais sobre regressão e regularização de cume, consulte os tópicos: Por que a estimativa de cume se torna melhor que OLS adicionando uma constante à diagonal? e Que problema os métodos de encolhimento resolvem? , e quando devo usar o laço vs cume? , e Por que a regressão do cume é chamada "cume", por que é necessária e o que acontece quando chega ao infinito? e muitos outros que temos .