Dada variável aleatória , com distribuição de probabilidade , a matriz de correlação é positiva, ou seja, seus autovalores são positivos ou zero.
Estou interessado nas condições em que são necessárias e / ou suficientes para que tenha zero autovalores. Por exemplo, uma condição suficiente é que as variáveis aleatórias não sejam independentes: para alguns números reais . Por exemplo, se , é um vetor próprio de com valor próprio zero. Se tivermos m restrições lineares independentes nos X_i 's desse tipo, isso implicaria m zero autovalores.
Há pelo menos uma possibilidade adicional (mas trivial), quando para alguns (ou seja, ), pois nesse caso tenha uma coluna e uma linha de zeros: . Como não é realmente interessante, estou assumindo que a distribuição de probabilidade não seja dessa forma.
Minha pergunta é: as restrições lineares são a única maneira de induzir valores próprios zero (se proibimos a exceção trivial dada acima), ou restrições não lineares nas variáveis aleatórias também podem gerar valores próprios zero de ?
fonte
Respostas:
Talvez, simplificando a notação, possamos trazer as idéias essenciais. Acontece que não precisamos envolver expectativas ou fórmulas complicadas, porque tudo é puramente algébrico.
A natureza algébrica dos objetos matemáticos
A questão diz respeito às relações entre (1) a matriz de covariância de um conjunto finito de variáveis aleatórias e (2) relações lineares entre essas variáveis, consideradas como vetores .X1,…,Xn
O espaço vetorial em questão é o conjunto de todas as variáveis aleatórias de variância finita (em qualquer espaço de probabilidade determinado ) modulo o subespaço de variáveis quase certamente constantes, denotadas (Ou seja, consideramos duas variáveis aleatórias e como o mesmo vetor quando existe uma chance zero de diferir de sua expectativa.) Estamos lidando apenas com o vetor de dimensão finita espaço gerado pelo que é o que faz deste um problema algébrico e não analítico.L 2 ( Ω , P ) / R . X Y X - Y V X i ,(Ω,P) L2(Ω,P)/R. X Y X−Y V Xi,
O que precisamos saber sobre variações
A variação é uma função de valor escalar com a propriedade que para todos os vetoresQ ( um X ) = um 2 Q ( X ) X .Q Q(aX)=a2Q(X) X.
A variação não é regenerada.
O segundo precisa de alguma explicação. determina um "produto escalar", que é uma forma bilinear simétrica dada porQ
(Naturalmente, isso nada mais é do que a covariância das variáveis e ) Os vetores e são ortogonais quando seu produto escalar é O complemento ortogonal de qualquer conjunto de vetores consiste em todos os vetores ortogonais para cada elemento de escritoY . X Y 0. A ⊂ V A ,X Y. X Y 0. A⊂V A,
É claramente um espaço vetorial. Quando , não é regenerado.QV0 0= { 0 } Q
Permita-me provar que a variação é realmente não-degenerada, mesmo que pareça óbvio. Suponha que é um elemento diferente de zero de Isso significa para todos osequivalentemente,V 0 . X ⋅ Y = 0 Y ∈ V ;X V0 0. X⋅ Y= 0 Y∈ V;
para todos os vetores Tomando dáY = XY. Y= X
e assim No entanto, sabemos (talvez usando Desigualdade de Chebyshev) que as únicas variáveis aleatórias com variância zero são quase certamente constantes, o que as identifica com o vetor zero em QED.V ,Q ( X) = 0. V,
Interpretando as perguntas
Voltando às perguntas, na notação anterior, a matriz de covariância das variáveis aleatórias é apenas uma matriz regular de todos os seus produtos pontuais,
Há uma boa maneira de pensar em : ele define uma transformação linear em da maneira usual, enviando qualquer vetor no vetor cujo componente é dado pela regra de multiplicação da matrizR n x = ( x 1 , … , xT Rn T ( x ) = y = ( y 1 , ... , x n ) i thx = ( x1 1, … , Xn) ∈ Rn T(x)=y=(y1,…,xn) iº
O núcleo dessa transformação linear é o subespaço que ele envia a zero:
A equação anterior implica que, quando para cadaix∈Ker(T), i
Como isso é verdadeiro para todo ele é válido para todos os vetores abrangidos pelo : ou seja, o próprioConsequentemente, quando o vetor dado por fica em Como a variação não é regenerada, isso significa Ou seja, descreve uma dependência linear entre as variáveis aleatórias originais.X i V x ∈ Ker ( T ) , ∑ j x j Xi, Xi V x∈Ker(T), V 0 . ∑ j x j X j = 0. x n∑jxjXj V0. ∑jxjXj=0. x n
Você pode verificar facilmente se essa cadeia de raciocínio é reversível:
(Lembre-se, essa declaração ainda considera o como definido até uma mudança constante na localização - isto é, como elementos de vez de como apenas variáveis aleatórias.)L 2 ( Ω , P ) / RXj L2(Ω,P)/R
Finalmente, por definição, um valor próprio de é qualquer escalar para o qual existe um vetor diferente de zero com Quando é um valor próprio, o espaço dos vetores próprios associados é (obviamente) o núcleo deλT λ T ( x ) = λ x . λ = 0 T .x T(x)=λx. λ=0 T.
Sumário
Chegámos à resposta às perguntas: o conjunto de dependências lineares das variáveis aleatórias, qua elementos de corresponde um-para-um com o núcleo de sua matriz de covariância Isso ocorre porque a variação é uma forma quadrática não-regenerada. O kernel também é o espaço próprio associado ao valor próprio zero (ou apenas o subespaço zero quando não há valor próprio zero).T.L2(Ω,P)/R, T.
Referência
Eu adotei amplamente a notação e parte da linguagem do capítulo IV em
Jean-Pierre Serre, um curso de aritmética. Springer-Verlag 1973.
fonte
A independência linear não é apenas suficiente, mas também uma condição necessária
Para mostrar que a matriz de variância-covariância possui autovalores iguais a zero se e somente se as variáveis não forem linearmente independentes, resta apenas mostrar que "se a matriz tiver autovalores iguais a zero, as variáveis não serão linearmente independentes".
Se você tiver um autovalor zero para , haverá alguma combinação linear (definida pelo vetor próprio )vCij=Cov(Xi,Xj) v
de tal modo que
o que significa que precisa ser uma constante e, portanto, as variáveis precisam somar uma constante e são constantes (o caso trivial) ou não são linearmente independentes.X iY Xi
- a primeira linha na equação com é devido à propriedade de covariânciaCov ( a U + b V , c W + d X ) = a cCov(Y,Y) Cov(aU+bV,cW+dX)=acCov(U,W) + b cCov (V,W) + a dCov (U,X) + b dCov (V,X)
- o passo da segunda para a terceira linha é devido à propriedade de um valor próprio zero∑j = 1nvjCeu j= 0
Restrições não lineares
Portanto, como restrições lineares são uma condição necessária (não apenas suficiente), restrições não lineares só serão relevantes quando implicarem indiretamente uma restrição linear (necessária).
De fato, existe uma correspondência direta entre os vetores próprios associados ao valor próprio zero e as restrições lineares.
Assim, restrições não lineares que levam a um valor próprio zero devem, juntas, gerar alguma restrição linear.
Como restrições não lineares podem levar a restrições lineares
Seu exemplo nos comentários pode mostrar intuitivamente como restrições não lineares podem levar a restrições lineares ao reverter a derivação. As seguintes restrições não lineares
pode ser reduzido para
Você poderia inverter isso. Digamos que você tenha restrições não lineares e lineares, não é estranho imaginar como podemos substituir uma das restrições lineares por uma restrição não linear, preenchendo as restrições lineares nas restrições não lineares. Por exemplo, quando substituímos e na forma não-linear , então você pode fazer uma outra relação . E quando você multiplicar e então você começa .ba = d a 2 + b 2 = 1 a d - b c = 1 a = d c = - b a c = - b db = - c uma2+ b2= 1 umad- b c = 1 a = d c = - b a c = - b d
fonte
Suponha que tenha um vetor próprio com o valor próprio correspondente e , em seguida, . Assim, pela desigualdade de Chebyshev, é quase certamente constante e igual a . Ou seja, todo valor próprio zero corresponde a uma restrição linear, ou seja, . Não há necessidade de considerar nenhum caso especial.v 0 var ( v T X ) = v T C v = 0 v T X v T E [ X ] v T X = v T E [ X ]C v 0 var(vTX)=vTCv=0 vTX vTE[X] vTX=vTE[X]
Assim, concluímos:
"são restrições lineares a única maneira de induzir valores próprios zero [?]"
Sim.
"restrições não lineares nas variáveis aleatórias também podem gerar zero autovalores de C?"
Sim, se implicarem restrições lineares.
fonte
A covariância marix de é simétrica, portanto você pode diagnosticá-la como , com os valores próprios na matriz diagonalReescrevendo isso como , o rhs é a matriz de covariância de , então zero autovalores no lhs correspondem a combinações lineares de com distribuições degeneradas.X C = Q Λ Q T Λ . Λ = Q T C Q Q T X XC X C=QΛQT Λ. Λ=QTCQ QTX X
fonte