Eu gostaria de saber (relacionado a essa outra pergunta ) se os limites inferiores eram conhecidos para o seguinte problema de teste: um deles recebe acesso de consulta a uma sequência de números não negativos e , com a promessa de que ou . ε ∈ ( 0 , 1 ) Σ n k = 1 uma k = 1 Σ n k = 1 uma k ≤ 1 - ε
Quantas consultas (pesquisas) são suficientes e necessárias para que um algoritmo aleatório (adaptativo) faça a distinção entre os dois casos, com probabilidade de pelo menos ?
Eu encontrei um post anterior que fornece um limite logarítmico (em ) para o problema relacionado de aproximar a soma, e um limite inferior que corresponde aproximadamente a esse problema para algoritmos determinísticos; mas não foi possível encontrar um resultado para o problema específico que estou considerando (em particular, algoritmos aleatórios).
Edit: Seguindo a resposta abaixo, acho que deveria ter sido mais claro: acima (e particularmente nos assintóticos para o limite inferior), é a quantidade "principal" vista como indo para o infinito, enquanto é um (arbitrariamente pequeno) constante.ε
fonte
Respostas:
Aqui estão os limites inferiores que posso mostrar. Eu conjectura de que para um fixo , o direito limite inferior é Ω ( log n ) , mas, naturalmente, eu poderia estar errado.ϵ Ω(logn)
Vou usar uma sequência decrescente (apenas por conveniência). O mecanismo básico está dividindo a sequência em blocos No i th bloco não vão ser n i elementos (ou seja, Σ i n i = n ).L i ni ∑ini=n
A seguir, queremos que o algoritmo seja bem-sucedido com probabilidade , para alguns parâmetros δ > 0 .≥1−δ δ>0
Primeiro limite inferior: .Ω(1ϵlog1δ)
O th bloco tem n i = 2 i - 1 os elementos, de modo que L = LG n . Definimos o valor de todos os elementos no i- ésimo bloco para ( 1 + X i ) / ( 2 n i L ) , onde X i é uma variável que é 0 ou 1 . Claramente, a soma total desta sequência é α = L ∑ i = 1 1 + Xi ni=2i−1 L=lgn i (1+Xi)/(2niL) Xi 0 1
Imagine escolher cadaXicom probabilidadeβde1e0caso contrário. Para estimarα, precisamos de uma estimativa confiável deβ. Particularmente, queremos ser capazes de distinguir a baseβ=1-4ϵe, digamos,β=1.
Agora, imagine amostrar dessas variáveis aleatórias e deixar Z 1 , ... , Z m serem as variáveis amostradas. Definições Y = Σ m i = 1 ( 1 - X i ) (nota, que estão a tomar a soma das complemento variáveis), temos μ = E [ Y ] = ( 1 - β ) m , e Chernoff desigualdade nos diz que se β = 1 - 4m Z1,…,Zm Y=∑mi=1(1−Xi) μ=E[Y]=(1−β)m , então μ = 4 ε m , e a probabilidade de falha é
P [ Y ≤ 2 ε m ] = P [ Y ≤ ( 1 - 1 / 2 ) μ ] ≤ exp ( - μ ( 1 / 2 ) 2 / 2 ) = exp ( - ϵ m / 2 ) .
Para tornar essa quantidade menor queβ=1−4ϵ μ=4ϵm
A principal observação é que a desigualdade de Chernoff é pequena (é preciso ter cuidado, porque não é correto para todos os parâmetros, mas é correto neste caso), para que você não possa fazer melhor que isso (até constantes).
Segundo limite inferior: .Ω(logn/loglogn)
fonte
Limite inferior
Limite superior
Agora, estimaremos a soma dos valores em cada intervalo. O primeiro intervalo será tratado separadamente de todo o resto:
fonte