Por que a classificação da matriz de covariância é no máximo

17

Como afirmado nesta pergunta, a classificação máxima da matriz de covariância é n1 onde n é o tamanho da amostra e, portanto, se a dimensão da matriz de covariância for igual ao tamanho da amostra, seria singular. Não consigo entender por que subtraímos 1 da classificação máxima n da matriz de covariância.

user3070752
fonte
1
Para obter a intuição, pense em n=2 pontos em 3D. Qual é a dimensionalidade do subespaço em que esses pontos se encontram? Você pode ajustá-los em uma linha (subespaço 1D)? Ou você precisa de um plano (subespaço 2D)?
Ameba diz Reinstate Monica
Então você entende que n=2 leva à matriz de covariância de classificação 1? Ok, vamos pegar n=3 pontos. Você pode ver que você sempre pode ajustá-los em um plano 2D?
Ameba diz Reinstate Monica
4
@amoeba, seu exemplo foi claro, mas não consigo entender qual é a relação entre o hiperplano adequado no seu exemplo e a matriz de covariância?
user3070752
Desculpe pelo atraso;)
user3070752

Respostas:

20

O estimador imparcial da matriz de covariância da amostra, dado n pontos de dados xiRd é

C=1n1i=1n(xix¯)(xix¯),
ondex¯=xi/né a média de todos os pontos. Vamos denotar(xix¯)comozi. o1n1 fator n - 1 não altera a classificação e cada termo na soma possui (por definição) a classificação1 ; portanto, o núcleo da pergunta é o seguinte:

Por que tem posto n - 1 e não posto n , como parece, porque estamos a soma n rank 1 matrizes?zizin1nn1

A resposta é que isso acontece porque não são independentes. Por construção, Σ z i = 0 . Portanto, se você conhece n - 1 de z i , o último z n restante é completamente determinado; não estamos somando n rank independentes 1 matrizes, estamos somando única n - 1 rank independentes 1 matrizes e, em seguida, adicionando mais um rank 1zizi=0n1ziznn1n111 matriz que está completamente linearmente determinado pelo resto. Esta última adição não altera a classificação geral.

Podemos ver esta directamente se reescrever como z n = - n - 1 Σ i = 1 z i , e agora ligá-lo na expressão acima: n Σ i = 1 z i z i = n - 1 i = 1 z i z i + ( - n - 1 i = 1zi=0

zn=i=1n1zi,
i=1nzizi=i=1n1zizi+(i=1n1zi)zn=i=1n1zi(zizn).
n1n1

Este resultado, a propósito, sugere por que o fator no estimador imparcial de covariância é 1n11n .

n1x¯ é equivalente de centragem no argumento algébrica acima.

ameba diz Restabelecer Monica
fonte
0

Um pouco mais curto, acredito, a explicação é assim:

nmxnm

xmin(n,m)

nmz

z=xE[x] .

min(n,m1)

i=1mzi=0 .

z matriz , mesmo que uma das colunas seja removida.

x se torna:

cov(x,x)=1m1zzT

rank(zzT) .

rank(zzT)=rank(z)=min(n,m1)

Mikel
fonte