Momento / mgf de cosseno de vetores direcionais?

9

Alguém pode sugerir como eu posso calcular o segundo momento (ou a função geradora de momentos inteiros) do cosseno de dois vetores aleatórios gaussianos , cada um distribuído como , independente um do outro? IE, momento para a seguinte variável aleatóriaN ( 0 , Σ )x,yN(0,Σ)

x,yxy

A questão mais próxima é a função geradora de momento do produto interno de dois vetores aleatórios gaussianos que deriva MGF para o produto interno. Há também essa resposta do mathoverflow, que vincula essa pergunta à distribuição de autovalores de matrizes de covariância de amostra, mas não vejo imediatamente como usá-las para calcular o segundo momento.

Suspeito que o segundo momento seja dimensionado proporcionalmente à meia-norma dos valores próprios de Σ pois eu obtenho esse resultado através da manipulação algébrica para 2 dimensões e também para 3 dimensões de adivinhação e verificação. Para os autovalores a,b,c somando 1, o segundo momento é:

(a+b+c)2

Usando o seguinte para verificação numérica

val1[a_, b_, c_] := (a + b + c)/(Sqrt[a] + Sqrt[b] + Sqrt[c])^2
val2[a_, b_, c_] := Block[{},
  x := {x1, x2, x3};
  y := {y1, y2, y3};
  normal := MultinormalDistribution[{0, 0, 0}, ( {
      {a, 0, 0},
      {0, b, 0},
      {0, 0, c}
     } )];
  vars := {x \[Distributed] normal, y \[Distributed] normal};
  NExpectation[(x.y/(Norm[x] Norm[y]))^2, vars]]

  val1[1.5,2.5,3.5] - val2[1.5,2.5,3.5]

Verificando a fórmula para 4 variáveis ​​(dentro dos limites numéricos):

val1[a_, b_, c_, 
  d_] := (a + b + c + d)/(Sqrt[a] + Sqrt[b] + Sqrt[c] + Sqrt[d])^2
val2[a_, b_, c_, d_] := Block[{},
  x := {x1, x2, x3, x4};
  y := {y1, y2, y3, y4};
  normal := 
   MultinormalDistribution[{0, 0, 0, 
     0}, {{a, 0, 0, 0}, {0, b, 0, 0}, {0, 0, c, 0}, {0, 0, 0, d}}];
  vars := {x \[Distributed] normal, y \[Distributed] normal};
  NExpectation[(x.y/(Norm[x] Norm[y]))^2, vars]]

val1[0.5, 1.5, 2.5, 3.5] - val2[0.5, 1.5, 2.5, 3.5]
Yaroslav Bulatov
fonte
Devido à liberdade de rotação, uma vez que o cosseno é invariável sob rotações, um dos vetores pode ser considerado um vetor unitário em qualquer direção que seja mais conveniente. Isso deve simplificar bastante o problema, até o segundo momento do cosseno de em relação a . Edição: Na verdade, isso depende da simetria de . ( 1 , 0 , 0 , ) ΣxN(0,Σ)(1,0,0,)Σ
jwimberley
1
w A resposta de Huber aqui podem ser de interesse: stats.stackexchange.com/a/85977/37483
Ekvall
@ Student001, de fato, a taxa de 1 / n derivada nessa pergunta parece ser um caso especial dessa fórmula, pois removemos um grau de liberdade ao normalizar o traço da matriz de covariância para 1
Yaroslav Bulatov
Além: Observe que, wlog, é diagonal. Σ
cardeal
Eu encontrei a questão da distribuição de sendo feita pelo menos três vezes em validação cruzada, portanto, espero que este post popularize a noção de "distribuição normal projetada", para que não seja mais uma pergunta ! :)xx
Henry.L

Respostas:

1

Ei Yaroslav, você realmente não precisa se apressar em aceitar minha resposta no MO e é mais do que bem-vindo para pedir mais detalhes :).

Como você reformula a pergunta em 3-dim, posso ver exatamente o que você quer fazer. No post do MO, pensei que você só precisava calcular o maior cosseno entre duas variáveis ​​aleatórias. Agora o problema parece mais difícil.

Primeiro, calculamos o Gaussiano normalizado , que não é um trabalho trivial, pois na verdade tem o nome "distribuição normal projetada" porque podemos reescrever a densidade normal multivariada em termos de coordenada polar . E a densidade marginal para pode ser obtida em XXXX(X,XX)=(r,θ)θ

R+f(r,θ)dr

Um exemplo importante é aquele em que tem uma distribuição normal bivariada , na qual se diz que tem um normal projetado ( ou Gaussiano angular ou normal de deslocamento ) distribuição. [Mardia & Peter] p.46xN2(μ,Σ)x1x

Nesta etapa, podemos obter distribuições para e, portanto, sua densidade articular devido à independência. Quanto a uma função de densidade do concreto da distribuição normal projetada, consulte [Mardia & Peter] Cap. 10. ou [2] Equação (4) ou [1]. (Observe que em [2] eles também assumem uma forma especial de matriz de covariância )PNkXXYY(XX,YY)Σ=(Γγγ1)

Segundo, como já obtivemos a densidade de suas juntas, seu produto interno pode ser facilmente derivado usando a fórmula de transformação . Veja também [3].

(XX,YY)XXYY

Enquanto calculamos a densidade, o segundo momento é apenas um problema de integração.

Referência

[Mardia e Peter] Mardia, Kanti V. e Peter E. Jupp. Estatísticas direcionais. Vol. 494. John Wiley & Sons, 2009.

[1] Wang, Fangpo e Alan E. Gelfand. "Análise direcional de dados sob a distribuição normal geral projetada." Metodologia estatística 10.1 (2013): 113-127.

[2] Hernandez-Stumpfhauser, Daniel, F. Jay Breidt e Mark J. van der Woerd. "A distribuição normal geral projetada da dimensão arbitrária: modelagem e inferência bayesiana". Análise Bayesiana (2016). https://projecteuclid.org/download/pdfview_1/euclid.ba/1453211962

[3] Função geradora de momento do produto interno de dois vetores aleatórios gaussianos

Henry.L
fonte
@YaroslavBulatov Espero que isso valha a pena!
precisa saber é o seguinte
A resposta que eu postei no MO não é exatamente o que o OP queria, porque eu estava pensando que ele estava procurando pelo ângulo canônico. foi mal.
precisa saber é o seguinte
1
Você poderia provar que a matriz de covariância de identidade é wlog? Não é óbvio para mim. É "fácil" mostrar a afirmação do cardeal de que a matriz diagonal é wlog, mas como você se livra dos valores próprios?
Ekvall
@ Student001 Se , então o tem uma matriz de covariância de identidade. P XΣ=PΛPPX
precisa saber é o seguinte
1
Não, se é a decomposição espectral de , como matriz de covariância , que não precisa ser a identidade; portanto, pelo menos essa etapa não justifica wlog Talvez seu último comentário , Não tenho certeza. Σ P X Λ Σ = IPΛPΣPXΛΣ=I
Ekvall