É conjeturado que a aleatoriedade não estende o poder dos algoritmos de tempo polinomial, ou seja, é conjecturado para manter. Por outro lado, a aleatoriedade parece ter um efeito bastante diferente na redução do tempo polinomial . Pelo resultado bem conhecido de Valiant e Vazirani, o reduz-se para através da redução aleatória do tempo polinomial. Não é provável que a redução possa ser des randomizada, pois produziria , o que é improvável.
Pergunto-me, qual poderia ser o motivo dessa situação assimétrica: a des randomização parece bem possível em algoritmos probabilísticos de tempo polinomial, mas não em reduções probabilísticas de tempo polinomial?
cc.complexity-theory
reductions
derandomization
Andras Farago
fonte
fonte
Respostas:
Primeiro, deixe-me comentar sobre o caso específico da redução de Valiant-Vazirani; espero que isso ajude a esclarecer a situação geral.
A redução Valiant-Vazirani pode ser vista / definida de várias maneiras. Essa redução está "tentando" mapear uma fórmula booleana satisfatória para um exclusivamente satisfatório e um insatisfatório para um insatisfatório . Todas as fórmulas de saída são sempre obtidas pela restrição adicional de , portanto a insatisfação é sempre preservada. A redução pode ser definido quer como a saída de um único , ou como a saída de uma lista de . No último caso, "sucesso" no caso é definido como tendo pelo menos um exclusivamente satisfatórioF ′ F F ′ F F ′ F ′ 1 , … , F ′ t F ∈ S A T F ′ iF F′ F F′ F F′ F′1,…,F′t F∈SAT F′i na lista. Chame essas duas variantes de "redução de singleton" e "redução de lista", respectivamente (isso não é terminologia padrão).
O primeiro ponto que é importante notar é que a probabilidade de sucesso na redução de singleton é bastante pequena, a saber onde é o número de variáveis. As dificuldades em melhorar essa probabilidade de sucesso são exploradas no artigonΘ(1/n) n
"A probabilidade de isolamento de Valiant-Vazirani é melhorável?" por Dell et al.
http://eccc.hpi-web.de/report/2011/151/#revision1
Na redução de lista, a probabilidade de sucesso pode ser aumentada , digamos, com uma lista de tamanho poli . (Pode-se simplesmente repetir a redução de singleton muitas vezes, por exemplo.) ( n )1−2−n (n)
Agora, não é de todo evidente ou intuitivo que devamos ser capazes de derandomizar diretamente uma redução que só tem probabilidade de sucesso . De fato, nenhum dos resultados de dureza versus aleatoriedade fornece hipóteses sob as quais podemos fazê-lo neste caso. É muito mais plausível que a redução de lista possa ser des randomizada (com uma lista um pouco maior). Observe, porém, que isso não implicaria : nossa lista de fórmulas de saída pode ter muitas fórmulas exclusivamente satisfatórias, e talvez algumas com muitas atribuições satisfatórias, e parece inútil tentar definir um cálculo de aceitação exclusiva para essa lista. N P = U P1/n NP=UP
Mesmo que pudéssemos, de alguma forma, reduzir a lista em que um satisfatório sempre induzia uma lista onde a maioria dos é singularmente satisfatória, não há uma maneira clara de mudar isso. em uma redução determinística de singleton para isolamento. A verdadeira dificuldade subjacente é que não conhecemos nenhuma "operação de maioria aproximada para fórmulas exclusivamente satisfatórias", ou seja, uma redução cuja saída é exclusivamente satisfatória se a maioria são excepcionalmente satisfatórios e insatisfatórios se a maioria dosF " 1 , ... , M « t M « j R ( F " 1 , ... , M » t ) F ' J M ' jF F′1,…,F′t F′j R(F′1,…,F′t) F′j F′j são insatisfatórios. Isso também parece um fenômeno geral: reduções produzem objetos mais complexos do que algoritmos de decisão, e as propriedades desses objetos são mais difíceis de verificar, por isso é mais difícil combinar muitos desses objetos em um único objeto que herda alguma propriedade da maioria.
Para o caso Valiant-Vazirani, nem parece provável, sob premissas plausíveis de derandomização, que seríamos capazes de obter , ou seja, reduzir deterministicamente fórmulas satisfatórias a fórmulas satisfatórias com soluções poly . Intuitivamente, isso decorre do fato de que o procedimento de isolamento não tem idéia do tamanho aproximado do conjunto de soluções da fórmula que é dado.≤ ( n ) FNP=FewP ≤ (n) F
fonte
No mundo dos oráculos, é fácil dar exemplos em que a aleatoriedade nos dá muito mais poder. Considere, por exemplo, o problema de encontrar um zero de uma função booleana equilibrada. Um algoritmo aleatório realiza isso usando consultas com probabilidade de sucesso constante, enquanto qualquer algoritmo determinístico requer pelo menos n / 2 consultas.O(1) n/2
Aqui está outra situação em que se suspeita que a randomização ajude. Suponha que desejamos maximizar uma função submodular monótona sobre uma restrição matróide. Existem dois algoritmos diferentes que fornecem uma aproximação de , e isso é ideal neste modelo por um resultado de Vondrák. Ambos os algoritmos precisam calcular uma função da forma E x ∼ X f ( x ) , onde X1 - 1 / e Ex ∼ Xf( X ) X é uma distribuição com suporte exponencial. O cálculo exato dessa função é muito caro, mas pode ser aproximado por amostragem, e o resultado é um algoritmo aleatório. Em contraste, o algoritmo determinista melhor conhecido, o algoritmo mais, dá uma aproximação.1 / 2
Uma situação semelhante ocorre na maximização submodular irrestrita (aqui a função não é necessariamente monótona). O algoritmo de avanço recente dá uma ótima aproximação, mas a sua versão determinista dá apenas 1 / 3 aproximação. Aqui, a randomização se manifesta exatamente da mesma maneira que no caso monótono ou (em uma versão diferente do algoritmo) fazendo algumas escolhas aleatórias ao longo do caminho.1 / 2 1 / 3
Um dos autores dos últimos conjecturas de papel que é o melhor que um algoritmo determinista pode conseguir, e podemos semelhante conjectura de que 1 / 2 é o melhor que pode ser alcançado no problema anterior. Se essas conjecturas forem verdadeiras, é uma situação muito natural na qual a randomização provavelmente ajuda.1 / 3 1 / 2
Recentemente, Dobzinski e Vondrák mostraram como transformar limites inferiores do oráculo de valor (para algoritmos aleatórios) em resultados de dureza, condicionais em NP diferente de RP (o ingrediente principal é a decodificação de lista). Devemos mencionar que a transformação depende do método específico usado para provar os limites inferiores do oráculo. Talvez seja verdade que o valor determinístico dos limites inferiores da Oracle também se traduza em resultados de dureza.
fonte
Uma razão pela qual pode parecer estranho para você, que parecemos pensar que há um poder aparente (ou conjecturado) nas reduções aleatórias de para U P do que o comparável de B P P para P , é porque você pode estar tentados a pensar na aleatoriedade como algo que é poderoso (ou não poderoso) independentemente de qual "máquina" você a adiciona (se caricaturarmos essas classes de complexidade como classes decorrentes de modelos de máquinas).N P U P B P P P
E, no entanto, essas reduções de poder diferente existem. De fato, um recurso computacional como a aleatoriedade não possui necessariamente uma quantidade fixa de poder computacional, que é "significativo" ou "não significativo".
Podemos considerar que qualquer classe de complexidade baixa para si mesma - por exemplo, , P , B P P , B Q P , ⊕ P ou P S P A C E - é passível de um tipo de modelo de máquina no qual o A máquina sempre tem um estado bem definido sobre o qual você pode fazer perguntas a qualquer momento, além de permitir que o cálculo continue além da pergunta que você faz: em essência, exatamente que a máquina pode simular um algoritmo como uma sub-rotina para outro. A máquina que executa o cálculo pode não ser particularmente realistaeu P B P P B Q P ⊕ P P S P A C E Se nos restringirmos a restrições práticas sobre os recursos ( por exemplo, fisicamente realizável e capaz de respostas produzir em tempo polinomial baixo grau de problemas de interesse), mas ao contrário de classes como - para o qual não temos nenhuma idéia de como uma máquina nondeterministic poderia produzir a resposta para outro problema em N P e use a resposta de qualquer maneira além das reduções conjunturais e disjuntivas (iteradas) da tabela de verdade - imaginando uma classe como sendo incorporada por uma máquina com um estado bem definido que podemos investigar não nos desvie muito.N P N P
Se tomarmos essa posição, podemos perguntar o que acontece se fornecermos a esses modelos computacionais facilidades extras, como aleatoriedade ou não-determinismo. (Essas instalações extras não preservam necessariamente a propriedade de serem interpretáveis por um modelo de máquina, especialmente no caso do não-determinismo, mas dão origem a classes 'novas'.) Se essa instalação extra dá mais poder ao modelo, gera para uma classe C , isso é equivalente a dizer que há uma redução de C para M usando esse recurso, por exemplo , uma redução aleatória no caso de aleatoriedade.M C C M
A razão pela qual estou descrevendo isso em termos de classes que são baixas para si é que, se levarmos a sério que eles são "possíveis modelos de computação em outro mundo", sua pergunta sobre reduções aleatórias corresponde ao fato de que parece que a aleatoriedade aumenta drasticamente o poder de alguns modelos, mas não de outros .
fonte