Entendendo o teste t para regressão linear

17

Estou tentando descobrir como executar alguns testes de hipótese em uma regressão linear (hipótese nula sem correlação). Todo guia e página sobre o assunto em que encontro parece estar usando um teste t. Mas não entendo o que significa o teste t para regressão linear. Um teste t, a menos que eu tenha um entendimento ou modelo mental completamente errado, é usado para comparar duas populações. Mas o regressor e o regressando não são amostras de populações semelhantes e podem até não pertencer à mesma unidade, portanto, não faz sentido compará-las.

Então, ao usar um teste t em uma regressão linear, o que estamos realmente fazendo?

jaymmer - Restabelecer Monica
fonte

Respostas:

37

Você provavelmente está pensando no teste duas amostras t, porque esse é geralmente o primeiro local em que a distribuição t aparece. Mas, na verdade, tudo que um teste t significa é que a distribuição de referência para a estatística de teste é uma distribuição t . Se ZN(0,1) e S2χd2 com Z e S2 independentes, então

ZS2/dtd
por definição. Estou escrevendo isso para enfatizar que adistribuiçãoté apenas um nome que foi dado à distribuição dessa proporção porque ela aparece muito, e qualquer coisa dessa forma terá umadistribuiçãot. Para o teste t de duas amostras, essa razão aparece porque, sob o nulo, a diferença de médias é um Gaussiano com média zero e a estimativa de variância para Gaussianos independentes é umχ2independente (a independência pode ser mostrada peloteorema de Basu que usa o fato de que a estimativa de variância padrão em uma amostra gaussiana é acessória à média da população, enquanto a média da amostra é completa e suficiente para a mesma quantidade).

Com a regressão linear, basicamente obtemos a mesma coisa. Na forma de . Seja S 2 j = ( X T X ) - 1 jβ^N(β,σ2(XTX)1) e assuma que os preditoresXsão não aleatórios. Se soubéssemosσ2teríamos β j-0Sj2=(XTX)jj-1 1Xσ2 sob o valor nulo deH0:βj=

β^j-0 0σSjN(0 0,1 1)
então teríamos um teste Z. Mas uma vez que estimar σ 2 acabamos com um χ 2 variável aleatória que, sob as nossas suposições de normalidade, acaba por ser independente da nossa estatística β j e depois temos um t de distribuição.H0 0:βj=0 0σ2χ2β^jt

Aqui estão os detalhes disso: assuma . Deixando H = X ( X T X ) - 1 X T ser a matriz do chapéu, temos " e " 2 = " ( I - H ) y " 2 = y T ( I - H ) y . H é idempotente, por isso temos o resultado muito bom que yN(Xβ,σ2Eu)H=X(XTX)-1 1XT

__e__2=__(Eu-H)y__2=yT(Eu-H)y.
H com parâmetro de não centralidade δ = β T X T ( I - H ) X β = β T ( X T X - X T X ) β = 0 , então, na verdade, esse é um χ 2 centralcom n - p
yT(Eu-H)y/σ2χn-p2(δ)
δ=βTXT(Eu-H)Xβ=βT(XTX-XTX)β=0 0χ2n-pgraus de liberdade (este é um caso especial do teorema de Cochran ). Estou usando para denotar o número de colunas de X , portanto, se uma coluna de X fornecer a interceptação, teríamos p - 1 preditores de não interceptação. Alguns autores usam p para ser o número de preditores de não interceptação; portanto, às vezes você pode ver algo como n - p - 1 nos graus de liberdade, mas é tudo a mesma coisa.pXXp-1 1pn-p-1 1

E(eTe/σ2)=n-pσ^2: =1 1n-peTeσ2

β^jσ^Sj=β^jSjeTe/(n-p)=β^jσSjeTeσ2(n-p)

ZNk(μ,Σ)ABRl×kRm×kAZBZAΣBT=0

β^=(XTX)1XTye=(IH)yyN(Xβ,σ2I)

(XTX)1XTσ2I(IH)T=σ2((XTX)1XT(XTX)1XTX(XTX)1XT)=0
β^eβ^eTe

β^jσ^Sjtnp

C=(AB)(l+m)×kAB

CZ=(AZBZ)N((AμBμ),CΣCT)
CΣCT=(AB)Σ(ATBT)=(AΣATAΣBTBΣATBΣBT).
CZ is a multivariate Gaussian and it is a well-known result that two components of a multivariate Gaussian are independent if and only if they are uncorrelated, so the condition AΣBT=0 turns out to be exactly equivalent to the components AZ and BZ in CZ being uncorrelated.

jld
fonte
3
+1 always enjoy reading your answer.
Haitao Du
9

@Chaconne's answer is great. But here is a much shorter nonmathematical version!

Since the goal is to compute a P value, you first need to define a null hypothesis. Almost always, that is that the slope is actually horizontal so the numerical value for the slope (beta) is 0.0.

The slope fit from your data is not 0.0. Is that discrepancy due to random chance or due to the null hypothesis being wrong? You can't ever answer that for sure, but a P value is one way to sort-of-kind-of get at an answer.

The regression program reports a standard error of the slope. Compute the t ratio as the slope divided by its standard error. Actually, it is (slope minus null hypothesis slope) divided by the standard error, but the null hypothesis slope is nearly always zero.

Now you have a t ratio. The number of degrees of freedom (df) equals the number of data points minus the number of parameters fit by the regression (two for linear regression).

With those values (t and df) you can determine the P value with an online calculator or table.

It is essentially a one-sample t-test, comparing an observed computed value (the slope) with a hypothetical value (the null hypothesis).

Harvey Motulsky
fonte
3
The real question is why this is "essentially a one-sample t-test", and I don't see how it can become clear from your answer...
amoeba says Reinstate Monica