Por que a aleatoriedade tem um efeito mais forte nas reduções do que nos algoritmos?

36

É conjeturado que a aleatoriedade não estende o poder dos algoritmos de tempo polinomial, ou seja, é conjecturado para manter. Por outro lado, a aleatoriedade parece ter um efeito bastante diferente na redução do tempo polinomial . Pelo resultado bem conhecido de Valiant e Vazirani, o reduz-se para através da redução aleatória do tempo polinomial. Não é provável que a redução possa ser des randomizada, pois produziria , o que é improvável.P=BPPSUMATvocêSUMATNP=vocêP

Pergunto-me, qual poderia ser o motivo dessa situação assimétrica: a des randomização parece bem possível em algoritmos probabilísticos de tempo polinomial, mas não em reduções probabilísticas de tempo polinomial?

Andras Farago
fonte
3
Acho que o motivo é que a aleatoriedade ajuda quando a computação é interativa (por exemplo, impedindo que outro jogador trapaceie), e uma redução pode ser considerada um tipo muito simples de computação interativa.
Kaveh
11
Que evidência existe para que NP não seja igual a UP?
Sasho Nikolov
Outra situação em que a aleatoriedade parece fazer a diferença é "algoritmos de oracle de valor". Por exemplo, embora exista um algoritmo de aproximação aleatório 1/2 para maximização submodular irrestrita, o algoritmo determinístico mais conhecido é apenas uma aproximação 1/3. Sabe-se que a aproximação de 1/2 é ótima, e suspeita-se que a aproximação de 1/3 seja ótima por pelo menos um dos autores.
Yuval Filmus
@Yuval, você poderia expandir seu comentário em uma resposta? Eu estaria interessado em ler uma explicação mais longa.
Kaveh
4
Ótima pergunta!
Gil Kalai

Respostas:

28

Primeiro, deixe-me comentar sobre o caso específico da redução de Valiant-Vazirani; espero que isso ajude a esclarecer a situação geral.

A redução Valiant-Vazirani pode ser vista / definida de várias maneiras. Essa redução está "tentando" mapear uma fórmula booleana satisfatória para um exclusivamente satisfatório e um insatisfatório para um insatisfatório . Todas as fórmulas de saída são sempre obtidas pela restrição adicional de , portanto a insatisfação é sempre preservada. A redução pode ser definido quer como a saída de um único , ou como a saída de uma lista de . No último caso, "sucesso" no caso é definido como tendo pelo menos um exclusivamente satisfatórioF F F F F F 1 , , F t F S A T F iFFFFFFF1,...,FtFSUMATFEuna lista. Chame essas duas variantes de "redução de singleton" e "redução de lista", respectivamente (isso não é terminologia padrão).

O primeiro ponto que é importante notar é que a probabilidade de sucesso na redução de singleton é bastante pequena, a saber onde é o número de variáveis. As dificuldades em melhorar essa probabilidade de sucesso são exploradas no artigonΘ(1/n)n

"A probabilidade de isolamento de Valiant-Vazirani é melhorável?" por Dell et al.

http://eccc.hpi-web.de/report/2011/151/#revision1

Na redução de lista, a probabilidade de sucesso pode ser aumentada , digamos, com uma lista de tamanho poli . (Pode-se simplesmente repetir a redução de singleton muitas vezes, por exemplo.) ( n )1-2-n(n)

Agora, não é de todo evidente ou intuitivo que devamos ser capazes de derandomizar diretamente uma redução que só tem probabilidade de sucesso . De fato, nenhum dos resultados de dureza versus aleatoriedade fornece hipóteses sob as quais podemos fazê-lo neste caso. É muito mais plausível que a redução de lista possa ser des randomizada (com uma lista um pouco maior). Observe, porém, que isso não implicaria : nossa lista de fórmulas de saída pode ter muitas fórmulas exclusivamente satisfatórias, e talvez algumas com muitas atribuições satisfatórias, e parece inútil tentar definir um cálculo de aceitação exclusiva para essa lista. N P = U P1/nNP=vocêP

Mesmo que pudéssemos, de alguma forma, reduzir a lista em que um satisfatório sempre induzia uma lista onde a maioria dos é singularmente satisfatória, não há uma maneira clara de mudar isso. em uma redução determinística de singleton para isolamento. A verdadeira dificuldade subjacente é que não conhecemos nenhuma "operação de maioria aproximada para fórmulas exclusivamente satisfatórias", ou seja, uma redução cuja saída é exclusivamente satisfatória se a maioria são excepcionalmente satisfatórios e insatisfatórios se a maioria dosF " 1 , ... , M « t M « j R ( F " 1 , ... , M » t ) F ' J M ' jFF1,...,FtFjR(F1,...,Ft)FjFjsão insatisfatórios. Isso também parece um fenômeno geral: reduções produzem objetos mais complexos do que algoritmos de decisão, e as propriedades desses objetos são mais difíceis de verificar, por isso é mais difícil combinar muitos desses objetos em um único objeto que herda alguma propriedade da maioria.

Para o caso Valiant-Vazirani, nem parece provável, sob premissas plausíveis de derandomização, que seríamos capazes de obter , ou seja, reduzir deterministicamente fórmulas satisfatórias a fórmulas satisfatórias com soluções poly . Intuitivamente, isso decorre do fato de que o procedimento de isolamento não tem idéia do tamanho aproximado do conjunto de soluções da fórmula que é dado.( n ) FNP=FeWP(n)F

Andy Drucker
fonte
1
Desejo que todos que já aprenderam sobre Valiant-Vazirani leiam esta resposta. O mal-entendido de que a desregulação da VV implicaria NP = UP é infelizmente e obstinadamente persistente, e isso fornece uma discussão clara das questões e alternativas envolvidas.
Joshua Grochow
13

No mundo dos oráculos, é fácil dar exemplos em que a aleatoriedade nos dá muito mais poder. Considere, por exemplo, o problema de encontrar um zero de uma função booleana equilibrada. Um algoritmo aleatório realiza isso usando consultas com probabilidade de sucesso constante, enquanto qualquer algoritmo determinístico requer pelo menos n / 2 consultas.O(1)n/2

Aqui está outra situação em que se suspeita que a randomização ajude. Suponha que desejamos maximizar uma função submodular monótona sobre uma restrição matróide. Existem dois algoritmos diferentes que fornecem uma aproximação de , e isso é ideal neste modelo por um resultado de Vondrák. Ambos os algoritmos precisam calcular uma função da forma E x X f ( x ) , onde X1-1/eExXf(x)Xé uma distribuição com suporte exponencial. O cálculo exato dessa função é muito caro, mas pode ser aproximado por amostragem, e o resultado é um algoritmo aleatório. Em contraste, o algoritmo determinista melhor conhecido, o algoritmo mais, dá uma aproximação.1/2

Uma situação semelhante ocorre na maximização submodular irrestrita (aqui a função não é necessariamente monótona). O algoritmo de avanço recente dá uma ótima aproximação, mas a sua versão determinista dá apenas 1 / 3 aproximação. Aqui, a randomização se manifesta exatamente da mesma maneira que no caso monótono ou (em uma versão diferente do algoritmo) fazendo algumas escolhas aleatórias ao longo do caminho.1/21/3

Um dos autores dos últimos conjecturas de papel que é o melhor que um algoritmo determinista pode conseguir, e podemos semelhante conjectura de que 1 / 2 é o melhor que pode ser alcançado no problema anterior. Se essas conjecturas forem verdadeiras, é uma situação muito natural na qual a randomização provavelmente ajuda.1/31/2

Recentemente, Dobzinski e Vondrák mostraram como transformar limites inferiores do oráculo de valor (para algoritmos aleatórios) em resultados de dureza, condicionais em NP diferente de RP (o ingrediente principal é a decodificação de lista). Devemos mencionar que a transformação depende do método específico usado para provar os limites inferiores do oráculo. Talvez seja verdade que o valor determinístico dos limites inferiores da Oracle também se traduza em resultados de dureza.

Yuval Filmus
fonte
Gostaria de saber se o problema de estimativa de volume se enquadra nesse modelo de "oráculo de valor". Nesse modelo, você recebe um oráculo de associação para o objeto convexo cujo volume você está estimando, e é sabido que isso não pode ser aproximado deterministicamente até mesmo a um fator exponencial, mas pode ser aproximado arbitrariamente bem por um algoritmo aleatório.
precisa
12

Uma razão pela qual pode parecer estranho para você, que parecemos pensar que há um poder aparente (ou conjecturado) nas reduções aleatórias de para U P do que o comparável de B P P para P , é porque você pode estar tentados a pensar na aleatoriedade como algo que é poderoso (ou não poderoso) independentemente de qual "máquina" você a adiciona (se caricaturarmos essas classes de complexidade como classes decorrentes de modelos de máquinas).NPUPBPPP

E, no entanto, essas reduções de poder diferente existem. De fato, um recurso computacional como a aleatoriedade não possui necessariamente uma quantidade fixa de poder computacional, que é "significativo" ou "não significativo".

Podemos considerar que qualquer classe de complexidade baixa para si mesma - por exemplo, , P , B P P , B Q P , P ou P S P A C E - é passível de um tipo de modelo de máquina no qual o A máquina sempre tem um estado bem definido sobre o qual você pode fazer perguntas a qualquer momento, além de permitir que o cálculo continue além da pergunta que você faz: em essência, exatamente que a máquina pode simular um algoritmo como uma sub-rotina para outro. A máquina que executa o cálculo pode não ser particularmente realistaLPBPPBQPPPSPACESe nos restringirmos a restrições práticas sobre os recursos ( por exemplo,  fisicamente realizável e capaz de respostas produzir em tempo polinomial baixo grau de problemas de interesse), mas ao contrário de classes como - para o qual não temos nenhuma idéia de como uma máquina nondeterministic poderia produzir a resposta para outro problema em N P e use a resposta de qualquer maneira além das reduções conjunturais e disjuntivas (iteradas) da tabela de verdade - imaginando uma classe como sendo incorporada por uma máquina com um estado bem definido que podemos investigar não nos desvie muito.NPNP

Se tomarmos essa posição, podemos perguntar o que acontece se fornecermos a esses modelos computacionais facilidades extras, como aleatoriedade ou não-determinismo. (Essas instalações extras não preservam necessariamente a propriedade de serem interpretáveis ​​por um modelo de máquina, especialmente no caso do não-determinismo, mas dão origem a classes 'novas'.) Se essa instalação extra dá mais poder ao modelo, gera para uma classe C , isso é equivalente a dizer que há uma redução de C para M usando esse recurso, por exemplo ,  uma redução aleatória no caso de aleatoriedade.MCCM

A razão pela qual estou descrevendo isso em termos de classes que são baixas para si é que, se levarmos a sério que eles são "possíveis modelos de computação em outro mundo", sua pergunta sobre reduções aleatórias corresponde ao fato de que parece que a aleatoriedade aumenta drasticamente o poder de alguns modelos, mas não de outros .

NPUPPHBPPPPHBPPPP

BPP=PBPPΣ2pΔ2pNPcoNP

PHPBPPPBPP=Pnão é que "a aleatoriedade não tem poder", mas que a aleatoriedade sozinha (ou melhor, suplementada apenas pelo cálculo do tempo polinomial e fornecida a um modelo computacional de outra forma determinístico) não é poderosa. Mas isso não significa que não haja poder na aleatoriedade, que pode ser catalisada por outros recursos computacionais.

Niel de Beaudrap
fonte
"além de uma redução disjuntiva da tabela de verdade", e quanto a outras reduções monôtonas da tabela de verdade, como uma redução conjunta da tabela de verdade?
@ RickyDemer: Muito bem. Na época em que escrevi isso, eu trabalhava em certas classes não determinísticas relacionadas ao NL , para as quais o fechamento com reduções de dtt e ctt implicava o fechamento de complementos e, portanto, omiti a menção de ctt; mas o mesmo claramente não é verdadeiro para NL ou NP em si. Vou editar minha resposta.
Niel de Beaudrap
@NieldeBeaudrap Esta é uma resposta muito boa também.
Tayfun Pay