Eu tentei algumas distribuições e quase todas elas têm variação . Por exemplo, a distribuição na qual cada coordenada de cada é escolhida de maneira independente e uniforme de e a distribuição na qual cada é um vetor uniforme independente na esfera unitária dimensional tem variação .
É a variância mínima entre todas as distribuições?
Respostas:
Apresentarei uma formulação equivalente, mas de aparência mais simples, do problema e mostrarei um limite inferior de ( n / k - 1) / ( n −1).
Também mostro uma conexão com um problema aberto em informações quânticas.[Editar na revisão 3: em revisões anteriores, afirmei que uma caracterização exata dos casos em que o limite inferior mostrado abaixo é provavelmente difícil, porque uma pergunta análoga no caso complexo inclui um problema em aberto sobre SIC-POVMs em informação quântica. No entanto, essa conexão com os SIC-POVMs estava incorreta. Para detalhes, consulte a seção “Conexão incorreta aos SIC-POVMs em informações quânticas” abaixo.]Formulação equivalente
Primeiro, como já foi apontado na resposta de daniello, observe que Var ( x i T x j ) = E [( x i T x j ) 2 ] - E [ x i T x j ] 2 = E [( x i T x j ) 2 ]. Assim, no resto da resposta, nos esquecemos de variância e ao invés minimizar max i ≠ j E [( x i t x j ) 2 ].
A seguir, uma vez que decidimos que nosso objetivo é minimizar o máximo de i ≠ j E [( x i T x j ) 2 ], podemos ignorar a restrição de que E [ x i T x j ] = 0. Isso ocorre porque, se tivermos vetores unitários x 1 ,…, x n , então podemos negar cada um deles independentemente com probabilidade 1/2 para satisfazer E [ x i T x j ] = 0 sem alterar o valor da função objetivo max i ≠ j E [( x i T x j) 2 ].
Além disso, alterando a função de objectivo max i ≠ j E [( x i t x j ) 2 ] para (1 / ( n ( n -1))) Σ i ≠ j E [( x i t x j ) 2 ] não altera o valor ideal. O último é no máximo o primeiro, porque a média é no máximo o máximo. Entretanto, sempre podemos fazer os valores de E [( x i T x j ) 2 ] para diferentes escolhas de ( i , j ) ( i ≠j ) igual permutando os n vetores x 1 ,…, x n aleatoriamente.
Portanto, para qualquer n e k , o valor ótimo do problema em questão é igual ao mínimo de (1 / ( n ( n −1))) ∑ i ≠ j E [( x i T x j ) 2 ] onde x 1 ,…, x n são variáveis aleatórias que recebem vetores unitários em k como valores.
Entretanto, pela linearidade da expectativa, essa função objetivo é igual ao valor esperado E [(1 / ( n ( n −1))) ∑ i ≠ j ( x i T x j ) 2 ]. Como o mínimo é no máximo a média, não há mais a necessidade de considerar distribuições de probabilidade. Ou seja, o valor ideal do problema acima é igual ao valor ideal do seguinte:
Limite inferior
Usando esta formulação equivalente, provaremos que o valor ótimo é pelo menos ( n / k - 1) / ( n −1).
Para 1 ≤ i ≤ n , seja X i = x i x i T o projetor de classificação 1 correspondente ao vetor unitário x i . Então, sustenta que ( x i T x j ) 2 = Tr ( X i X j ).
Vamos Y = Σ i X i . Então, sustenta que Tr i ≠ j Tr ( X i X j ) = ∑ i , j Tr ( X i X j ) - n = Tr ( Y 2 ) - n .
A desigualdade de Cauchy-Schwarz implica que Tr ( Y 2 ) ≥ (Tr Y ) 2 / k = n 2 / k e, portanto, ∑ i ≠ j Tr ( X i X j ) = Tr ( Y 2 ) - n ≥ n 2 / k - n . Dividindo por n ( n −1), obtemos que o valor objetivo é pelo menos ( n / k - 1) / ( n −1).
Em particular, quando n = k +1, a resposta de daniello está dentro de um fator de 2 a partir do valor ideal.
Quando esse limite inferior é atingível?
Atingir este limite inferior ( n / k - 1) / ( N -1) é equivalente a tornar Y = ( n / k ) I . Não sei a caracterização exata quando possível, mas existem condições suficientes:
Embora eu não tenha verificado os detalhes, parece que qualquer projeto esférico 2 fornece uma solução para atingir esse limite inferior.
Conexão incorreta aos SIC-POVMs em informações quânticas
Nas revisões anteriores, afirmei:
Mas essa relação estava incorreta. Eu vou explicar o porquê.
Até agora, estava correto.
Esta parte estava incorreta. Um SIC-POVM é um conjunto de k 2 vetores unitários x 1 ,…, x n ℂ ℂ k para os quais | x i * x j | 2 = 1 / ( k 1) para todos os i ≠ j . Observe que aqui o requisito deve ser válido para todos os pares i ≠ j , não apenas para a média de todos os pares i ≠ j . Na seção "Formulação equivalente", mostramos a equivalência entre minimizar o máximo e minimizar a média, mas isso foi possível porque x 1,…, X n eram variáveis aleatórias tomando vetores unitários lá. Aqui x 1 ,…, x n são apenas vetores unitários, portanto não podemos usar o mesmo truque.
fonte
A resposta rápida e suja à pergunta é "não, a variação pode ser menor": Seja a base padrão e considere o seguinte processo aleatório: escolha um par de números inteiros distintos i, j de e defina . Para os outros vetores, (para ) atribua-os a maneira individual. Então, para cada , mantenha como está ou gire-o (para ) com probabilidade .v1,v2,…,vk {1,2,…,k+1} xi=xj=v1 xt t∉{i,j} v2,…,vk t∈{1,…,k+1} xi −xi 12
É fácil ver que - e são ortogonais ou apontam na mesma direção / oposta com probabilidade cada.x a x b 1E[xa⋅xb]=0 xa xb 12
Por outro lado, temos . Temos que se e somente se que acontece com a probabilidade . Caso contrário . Portanto, temos que, para todo , : ( x um ⋅ x b ) 2 = 1 { um , b } = { i , j }Var[xa⋅xb]=E[(xa⋅xb)2] (xa⋅xb)2=1 {a,b}={i,j} (xa⋅xb)2=01(k+12) (xa⋅xb)2=0 a b
Minha intuição é que isso seja tão ruim (pequeno) quanto possível, mas não tenho uma prova. Mais interessante é que essa construção parece quebrar para n >> k, e também quando os precisam ser escolhidos independentemente (possivelmente de diferentes distribuições).xi
fonte