O denominador do estimador de variância (imparcial) é pois existem observações e apenas um parâmetro está sendo estimado.n
Da mesma forma, pergunto-me por que o denominador de covariância não deveria ser quando dois parâmetros estão sendo estimados?
Respostas:
Covariances são variações.
Desde pela identidade de polarização
os denominadores devem ser os mesmos.
fonte
Um caso especial deve lhe dar uma intuição; pense no seguinte:
Você está feliz que o último seja devido à correção de Bessel.∑ni = 1( XEu- X¯¯¯¯¯)2n - 1
Mas substituindo por X em ^ C O v ( X , Y ) para ao primeiro dá Σ n i = 1 ( X i - ¯ X ) ( X i - ¯ X )Y X Cov^(X,Y) , então o que você acha que poderia preencher melhor o espaço em branco?∑ni=1(Xi−X¯¯¯¯¯)(Xi−X¯¯¯¯¯)mystery denominator
fonte
Uma resposta rápida e suja ... Vamos considerar primeiro ; se você tivesse n observações com valor esperado conhecido E ( X ) = 0, você usaria 1var(X) n E(X)=0 para estimar a varicia.1n∑ni=1X2i
Como o valor esperado é desconhecido, você pode transformar suas observações em n - 1 observações com valor esperado conhecido, tomando A i = X i - X 1 para i = 2 , … , n . Você obterá uma fórmula com n - 1 no denominador - no entanto, A i não é independente e você deve levar isso em consideração; no final, você encontrará a fórmula usual.n n−1 Ai=Xi−X1 i=2,…,n n−1 Ai
Agora, para a covariância, você pode usar a mesma idéia: se o valor esperado de fosse ( 0 , 0 ) , você teria 1(X,Y) (0,0) na fórmula. Subtraindo(X1,Y1)a todos os outros valores observados, você obtémn-1observações com o valor esperado conhecido ... e um11n (X1,Y1) n−1 na fórmula - mais uma vez, isso introduz alguma dependência a ser levada em consideração.1n−1
PS A maneira limpa para fazer isso é escolher uma base ortonormal de , que é n - 1 vetores c 1 , ... , c n - 1 ∈ R n tal que⟨(1,…,1)′⟩⊥ n−1 c1,…,cn−1∈Rn
Pode, em seguida, definir variáveis Um i = Σ j c i j X j e B i = Σ j c i j Y j . Os ( A i , B i ) são independentes, têm valor esperado ( 0 , 0 ) e têm a mesma variância / covariância que as variáveis originais.n−1 Ai=∑jcijXj Bi=∑jcijYj (Ai,Bi) (0,0)
A questão é que, se você quiser se livrar da expectativa desconhecida, descarte uma (e apenas uma) observação. Isso funciona da mesma forma nos dois casos.
fonte
Aqui está uma prova de que o estimador de covariância da amostra p-variada com denominador é um estimador imparcial da matriz de covariância:1n−1
.x′=(x1,...,xp)
Next:
(1)E(xix′i)=Σ+μμ′
(2)E(x¯x¯′)=1nΣ+μμ′
Therefore:E(S)=Σ+μμ′−(1nΣ+μμ′)=n−1nΣ
And soSu=nn−1S , with the final denominator 1n−1 , is unbiased. The off-diagonal elements of Su are your individual sample covariances.
Additional remarks:
The n draws are independent. This is used in (2) to calculate the covariance of the sample mean.
Step (1) and (2) use the fact thatCov(x)=E[xx′]−μμ′
Step (2) uses the fact thatCov(x¯)=1nΣ
fonte
I guess one way to build intuition behind using 'n-1' and not 'n-2' is - that for calculating co-variance we do not need to de-mean both X and Y, but either of the two, i.e.
fonte
1) Startdf=2n .
2) Sample covariance is proportional toΣni=1(Xi−X¯)(Yi−Y¯) . Lose two df ; one from X¯ , one from Y¯ resulting in df=2(n−1) .
3) However,Σni=1(Xi−X¯)(Yi−Y¯) only contains n separate terms, one from each product. When two numbers are multiplied together the independent information from each separate number disappears.
As a trite example, consider that
and that does not include irrationals and fractions, e.g.24=26–√∗26–√ , so that when we multiply two number series together and examine their product, all we see are the df=n−1 from one number series, as we have lost half of the original information, that is, what those two numbers were before the pair-wise grouping into one number (i.e., multiplication) was performed.
In other words, without loss of generality we can write
i.e.,zi=XiYi−X¯Yi−XiY¯ , and, z¯=X¯Y¯ . From the z 's, which then clearly have df=n−1 , the covariance formula becomes
Thus, the answer to the question is that thedf are halved by grouping.
fonte
Hold
?