Posso provar uma relação curvilínea quando a variável independente linear não é significativa

8

Estou investigando um efeito curvilíneo entre X e Y usando uma análise de regressão hierárquica. Para testar os efeitos curvilíneos, o termo quadrado de X foi calculado (quero dizer, centro também variável X).

No modelo 1, as variáveis ​​de controle foram inseridas. No modelo 2, X (linear) foi inserido. No modelo 3, X (quadrático) foi inserido.

No modelo 2, X linear é significativo. Quando o termo ao quadrado é inserido no Modelo 3, o termo quadrático é significativo, mas o termo linear não é. Isso prova um efeito curvilíneo? Ou é essencial que, no Modelo 3, ambos (linear e quadrático) sejam significativos?

Quando não quero dizer centralizar a variável independente, o Modelo 3 afirmou X linear e X quadrático significante. O problema aqui são questões de multicolinearidade.

Sanne
fonte

Respostas:

6

Não, não é essencial que os termos linear e quadrático sejam significativos. Somente o termo quadrático precisa ser significativo.

De fato, é importante notar que o termo linear assume uma interpretação um pouco diferente no contexto de um modelo que também inclui o termo quadrático. Nesse modelo, o termo linear agora representa a inclinação da reta tangente a x na interceptação em y, ou seja, a inclinação prevista de x quando e somente quando x = 0 . Portanto, um teste do termo linear em um modelo como esse não está, em geral, testando a mesma coisa que em um modelo que apenas inclui o termo linear sem o quadrático.

Jake Westfall
fonte
0

Pense no que significa significado. Um relacionamento da forma que você sugere pode ser caracterizado como estimado empiricamente como .Y = α 1Y=a1X2+a2X+bY^=α1X^2+α2X^+β+ϵ

O que significa o significado de uma estimativa - digamos, -? O significado é Pr (dados | H0) e, dada uma probabilidade "não significativa", o que você realmente não rejeita, é a possibilidade de o coeficiente ser realmente zero.α2

Isso invalida a suposição de uma relação curvilínea? Não na minha opinião. Pelo contrário, parece sugerir que é realmente zero.a2

Considere o seguinte exemplo (escrito em Stata).

Primeiro, geramos alguns dados:

set obs 20000
gen x = uniform()
gen control_one = uniform()
gen control_two = uniform()
drawnorm e, m(0) sd(0.5)

Em seguida, especificamos uma nova variável X = x ^ 2 e um relacionamento para uma variável de resultado Y

gen Y = control_one+control_two+X+e

(Isso corresponde a um modelo curvilíneo multidimensional em x com coeficiente do termo linear e constante igual a zero).

Em seguida, executamos algumas regressões:

reg Y control_one control_two
reg Y control_one control_two x
reg Y control_one control_two X x

O termo x é significativo no segundo modelo, mas não no terceiro. Tanto quanto eu entendo, isso reflete sua experiência com dados reais.

abaumann
fonte
0

Na verdade, não é essencial que ambos os termos sejam significativos, mas você nunca prova nada com apenas um modelo.

As estimativas fornecidas dos coeficientes são estimativas e fornecem evidências. Um grande coeficiente no termo quadrático fornece muitas evidências, um pequeno coeficiente fornece uma pequena evidência, de uma relação curvilínea. O termo linear é irrelevante. Pode ser positivo, negativo, próximo de 0 ou o que for.

Um gráfico dos dados também fornecerá evidências de um relacionamento curvilíneo.

A significância estatística significa uma coisa muito precisa: se , na população da qual essa amostra foi extraída, o efeito foi realmente 0, existe uma chance de 5% de que, em uma amostra do tamanho disponível, uma estatística de teste até aqui ou mais longe de 0 seria obtido.

Peter Flom
fonte
0

Como observado, a significância do termo curvilíneo permanece por si só, independentemente da significância do termo linear na regressão. Se o termo linear estiver próximo de zero, a curva será U ou U invertido, se for significativo. Se ambos os termos forem significativos, a linha resultante é mais como uma colina com uma inclinação de aceleração (ou desaceleração).

EstatísticasDoc Consulting
fonte