Interpretação da matriz variância-covariância

12

Suponha que tenhamos um modelo linear Model1e vcov(Model1)forneça a seguinte matriz:

             (Intercept)    latitude  sea.distance   altitude
(Intercept)    28.898100 -23.6439000  -34.1523000  0.50790600
latitude      -23.643900  19.7032500   28.4602500 -0.42471450
sea.distance  -34.152300  28.4602500   42.4714500 -0.62612550
altitude        0.507906  -0.4247145   -0.6261255  0.00928242

Neste exemplo, o que essa matriz realmente exibe? Que suposições podemos fazer com segurança para o nosso modelo e suas variáveis ​​independentes?

Murania
fonte

Respostas:

11

Xσ^2σ^2(XX)1

As entradas diagonais são a variação dos coeficientes de regressão e as fora-diagonais são a covariância entre os coeficientes de regressão correspondentes.

No que diz respeito às suposições, aplique a função cov2cor () à sua matriz de variância-covariância. Esta função irá converter a matriz fornecida em uma matriz de correlação. Você obterá estimativas das correlações entre os coeficientes de regressão. Dica: para esta matriz, cada uma das correlações terá grandes magnitudes.

Para dizer algo sobre o modelo em particular, precisamos de estimativas pontuais dos coeficientes de regressão para dizer mais alguma coisa.

Donnie
fonte
11

@Donnie forneceu uma boa resposta (+1). Deixe-me acrescentar alguns pontos.

β^j

SEs   = sqrt(diag(vcov(Model1)))
SEs
# [1] 5.37569530 4.43883431 6.51701235 0.09634532

Eles são usados ​​para formar intervalos de confiança e testar hipóteses sobre seus betas.

0 00 0cov2cor()|r|>.97β^j/SE(β^j)

Repor a Monica
fonte