Em R, se eu escrever
lm(a ~ b + c + b*c)
isso ainda seria uma regressão linear?
Como fazer outros tipos de regressão em R? Gostaria de receber alguma recomendação para livros ou tutoriais?
r
regression
suprvisr
fonte
fonte
lm()
significa uma regressão linear. Seu modelo inclui três parâmetros (menos a interceptação) parab
,c
e sua interaçãob:c
, que significa parab + c + b:c
oub*c
para abreviado (R segue a notação de Wilkinson para modelos estatísticos). É solicitado o ajuste de um modelo linear generalizado (ou seja, onde a função de link não é identidade, como é o caso do modelo linear expresso acima)glm()
.Respostas:
Linear refere-se à relação entre os parâmetros que você está estimando (por exemplo, ) e o resultado (por exemplo, ). Portanto, é linear, mas não é. Um modelo linear significa que sua estimativa do seu vetor de parâmetro pode ser gravada , em que são pesos determinados pelo seu procedimento de estimativa. Os modelos lineares podem ser resolvidos algebricamente na forma fechada, enquanto muitos modelos não lineares precisam ser resolvidos por maximização numérica usando um computador.y i y = e x β + ε y = e β x + ε β = Σ i w i y i { w i }β yi y=exβ+ϵ y=eβx+ϵ β^=∑iwiyi {wi}
fonte
Esta postagem no minitab.com fornece uma explicação muito clara:
Response = constant + parameter * predictor + ... + parameter * predictor
fonte
Eu tomaria cuidado ao fazer isso como uma questão de "regressão linear R" versus uma questão de "regressão linear". As fórmulas em R têm regras que você pode ou não estar ciente. Por exemplo:
http://wiener.math.csi.cuny.edu/st/stRmanual/ModelFormula.html
Supondo que você esteja perguntando se a seguinte equação é linear:
A resposta é sim, se você montar uma nova variável independente, como:
Substituir a equação newv acima na equação original provavelmente se parece com o que você espera de uma equação linear:
No que diz respeito às referências, o Google "r regression" ou o que você acha que pode funcionar para você.
fonte
a
é uma função linear dos quatro coeficientes.Você pode escrever a regressão linear como uma equação de matriz (linear).
ou se você recolher isto:
Essa regressão linear é equivalente a encontrar a combinação linear de vetores , e mais próxima do vetor .b c b∗c a
(Isso também tem uma interpretação geométrica como encontrar a projeção de no intervalo dos vetores , e . Para um problema com dois vetores de coluna com três medições, isso ainda pode ser desenhado como uma figura, como mostrado aqui: http://www.math.brown.edu/~banchoff/gc/linalg/linalg.html )b c b ∗ ca b c b∗c
Compreender esse conceito também é importante na regressão não linear. Por exemplo, é muito mais fácil resolver que porque a primeira parametrização permite resolver os e coeficientes com as técnicas de regressão linear. y = u ( e c ( t - v ) + e d ( t - v ) ) a by=aect+bedt y=u(ec(t−v)+ed(t−v)) a b
fonte