A raiz quadrada de uma matriz semi-definida positiva é um resultado único?

8

Estou tentando decompor uma série temporal de n observações vc na estrutura n×n variância-covariância e uma série aleatória v .

Portanto, posso derivar a matriz de variância-covariância da função de autocorrelação de vc . Esta será uma matriz de Toeplitz, que é semidefinida positiva. Portanto, sou capaz de calcular uma matriz adequada 12 para transformar minhas séries correlatas em um sinal aleatório.

v=12vc

Eu sou capaz de fazer isso usando a função sqrt (m) no MATLAB, mas também posso encontrar uma fatoração de Cholesky da matriz de variância-covariância e usá-la para induzir as correlações. No entanto, obtenho resultados diferentes (mas um pouco semelhantes) para as séries aleatórias usando os métodos sqrtm e Cholesky.

Eu li vários textos para determinar como determinar a raiz quadrada de várias matrizes e observei os métodos de decomposição de autovalores e assim por diante. Vejo que existem apenas soluções únicas sob certas condições prescritas - mas presumo que essas soluções exclusivas ainda sejam apenas uma das muitas raízes?

Minha pergunta é a seguinte: existe alguma maneira de argumentar que uma raiz quadrada específica é preferível a outra. Caso contrário, existe uma maneira de extrair todas as soluções possíveis, de modo que todas as funções aleatórias possíveis possam ser obtidas?

hidrologista
fonte

Respostas:

7

Deixe uma matriz ter "raízes quadradas" A e B ; isso é,VAB

V=AA=BB.

Por uma questão de simplicidade, suponha que a matriz original seja invertível (o que equivale a ser definido positivamente sob as premissas). Então , e suas transposições também devem ser invertíveis porqueA BVAB

I=V1V=V1AA=(V1A)A

exibe um inverso à esquerda para , implicando que é invertível; o mesmo argumento se aplica a , é claro. Exploramos esses inversos para escreverA BAAB

(B1A)(B1A)=B1(AA)B1=B1(V)B1=B1(BB)B1=I I=I,

mostrando que é uma matriz ortogonal : ou seja, . O conjunto de tais matrizes forma duas variedades reais suaves de dimensão quando é por . Geometricamente, matrizes ortogonais correspondem a rotações ou a uma reflexão seguida de rotações, dependendo do sinal de seu determinante.O O = I n ( n - 1 ) / 2 V n nO=B1AOO=In(n1)/2Vnn

Por outro lado, quando é uma raiz quadrada de , cálculos semelhantes (mas mais fáceis) mostram que também é uma raiz quadrada de qualquer matriz ortogonal e Não importa aqui se é invertível ou não.V A O O AAVAOOA

Também é fácil ver que a multiplicação por uma matriz ortogonal (diferente de ) realmente altera a raiz quadrada de uma matriz invertível. Afinal, implica imediatamente . Isso mostra que as raízes quadradas das matrizes definidas positivas podem ser colocadas em uma correspondência individual com as matrizes ortogonais.A O = A O = A - 1 A = IIAO=AO=A1A=I

Isso demonstra que as raízes quadradas das matrizes positivas definidas são determinadas apenas até a multiplicação por matrizes ortogonais. Para o caso semi-definido, a situação é mais complicada, mas, no mínimo, a multiplicação por uma matriz ortogonal preserva a propriedade de ser uma raiz quadrada.

Se você deseja aplicar critérios adicionais à sua raiz quadrada, poderá identificar um único ou, pelo menos, restringir a ambiguidade: isso dependerá de suas preferências particulares.

whuber
fonte
5
(+1) @hydrologist: Como complemento à resposta do whuber: Um critério possível que levará à singularidade é insistir em que a raiz quadrada seja semidefinida positiva. A exclusividade de então se mantém sob a condição mais fraca de que é positivo semidefinido. Um exemplo instrutivo para ver o que pode "dar errado" é examinar as possíveis raízes quadradas de , mesmo as diagonais ! :)V IAVI
cardeal
@ cardinal: Obrigado por suas respostas, que são muito úteis e muito apreciadas!
Hidrologista
@ whuber: Obrigado novamente por sua ajuda. Isso tem sido muito útil.
Hidrologista
1
Isto é conhecido como a liberdade unitária de raízes quadradas
b Kjetil HALVORSEN