Você provavelmente está pensando no teste duas amostras t, porque esse é geralmente o primeiro local em que a distribuição t aparece. Mas, na verdade, tudo que um teste t significa é que a distribuição de referência para a estatística de teste é uma distribuição t . Se Z∼N(0,1) e S2∼χ2d com Z e S2 independentes, então
ZS2/d−−−−√∼td
por definição. Estou escrevendo isso para enfatizar que adistribuição
té apenas um nome que foi dado à distribuição dessa proporção porque ela aparece muito, e qualquer coisa dessa forma terá umadistribuição
t. Para o teste t de duas amostras, essa razão aparece porque, sob o nulo, a diferença de médias é um Gaussiano com média zero e a estimativa de variância para Gaussianos independentes é um
χ2independente (a independência pode ser mostrada pelo
teorema de Basu que usa o fato de que a estimativa de variância padrão em uma amostra gaussiana é acessória à média da população, enquanto a média da amostra é completa e suficiente para a mesma quantidade).
Com a regressão linear, basicamente obtemos a mesma coisa. Na forma de . Seja S 2 j = ( X T X ) - 1 jβ^∼N(β,σ2(XTX)−1) e assuma que os preditoresXsão não aleatórios. Se soubéssemosσ2teríamos
β j-0S2j= ( XTX)- 1j jXσ2
sob o valor nulo deH0:βj=
β^j- 0σSj∼ N( 0 , 1 )
então teríamos um teste Z. Mas uma vez que estimar
σ 2 acabamos com um
χ 2 variável aleatória que, sob as nossas suposições de normalidade, acaba por ser independente da nossa estatística
β j e depois temos um
t de distribuição.
H0 0: βj= 0σ2χ2β^jt
Aqui estão os detalhes disso: assuma . Deixando H = X ( X T X ) - 1 X T ser a matriz do chapéu, temos
" e " 2 = " ( I - H ) y " 2 = y T ( I - H ) y . H é idempotente, por isso temos o resultado muito bom que
y∼ N( Xβ, σ2Eu)H= X( XTX)- 1XT
∥ e ∥2= ∥ ( I- H) y∥2= yT( Eu- H) y.
H
com parâmetro de não centralidade
δ = β T X T ( I - H ) X β = β T ( X T X - X T X ) β = 0 , então, na verdade, esse é um
χ 2 centralcom
n - pyT( Eu- H) y/ σ2∼ χ2n - p( δ)
δ= βTXT( Eu- H) Xβ= βT( XTX- XTX) β= 0χ2n - pgraus de liberdade (este é um caso especial
do teorema de
Cochran ). Estou usando
para denotar o número de colunas de
X , portanto, se uma coluna de
X fornecer a interceptação, teríamos
p - 1 preditores de não interceptação. Alguns autores usam
p para ser o número de preditores de não interceptação; portanto, às vezes você pode ver algo como
n - p - 1 nos graus de liberdade, mas é tudo a mesma coisa.
pXXp - 1pn - p - 1
E( eTe / σ2) = n - pσ^2: = 1n - peTeσ2
β^jσ^Sj= β^jSjeTe / ( n - p )----------√= β^jσSjeTeσ2( n - p )------√
Z∼ Nk(μ,Σ)ABRl×kRm×kAZBZAΣBT=0
β^=(XTX)−1XTye=(I−H)yy∼N(Xβ,σ2I)
(XTX)−1XT⋅σ2I⋅(I−H)T=σ2((XTX)−1XT−(XTX)−1XTX(XTX)−1XT)=0
β^⊥eβ^⊥eTe
β^jσ^Sj∼tn−p
C=(AB)(l+m)×kAB
CZ=(AZBZ)∼N((AμBμ),CΣCT)
CΣCT=(AB)Σ(ATBT)=(AΣATBΣATAΣBTBΣBT).
CZ is a multivariate Gaussian and it is a well-known result that two components of a multivariate Gaussian are independent if and only if they are uncorrelated, so the condition
AΣBT=0 turns out to be exactly equivalent to the components
AZ and
BZ in
CZ being uncorrelated.
□
@Chaconne's answer is great. But here is a much shorter nonmathematical version!
Since the goal is to compute a P value, you first need to define a null hypothesis. Almost always, that is that the slope is actually horizontal so the numerical value for the slope (beta) is 0.0.
The slope fit from your data is not 0.0. Is that discrepancy due to random chance or due to the null hypothesis being wrong? You can't ever answer that for sure, but a P value is one way to sort-of-kind-of get at an answer.
The regression program reports a standard error of the slope. Compute the t ratio as the slope divided by its standard error. Actually, it is (slope minus null hypothesis slope) divided by the standard error, but the null hypothesis slope is nearly always zero.
Now you have a t ratio. The number of degrees of freedom (df) equals the number of data points minus the number of parameters fit by the regression (two for linear regression).
With those values (t and df) you can determine the P value with an online calculator or table.
It is essentially a one-sample t-test, comparing an observed computed value (the slope) with a hypothetical value (the null hypothesis).
fonte