[Nota: Eu acredito que esta questão não depende da correção ou incorreta do artigo de Deolalikar.]
No blog de Scott Aaronson, Shtetl Optimized , na discussão sobre a recente tentativa de Deolalikar em P vs NP, Leonid Gurvits fez o seguinte comentário :
Tentei entender / reformular a abordagem, e aqui está a minha tentativa, talvez muito minimalista: as distribuições probabilísticas discretas no artigo podem ser vistas como tensores ou polinômios multilineares muito especiais. As suposições “P = NP” de alguma forma fornecem um limite superior (polinomial?) No ranking do tensor. E, finalmente, usando resultados probabilísticos conhecidos, ele obtém um limite inferior não correspondente (exponencial?) Na mesma classificação. Se estou certo, essa abordagem é uma maneira muito inteligente, em um bom sentido elementar, de promover as abordagens algébricas-geométricas anteriores.
Apesar das falhas suspeitas / conhecidas na prova de Deolalikar, estou curioso:
De que maneira as distribuições discutidas no artigo de Deolalikar podem ser consideradas como tensores e como as declarações de seus resultados (independentemente de sua exatidão) se traduzem em declarações sobre a classificação dos tensores?
fonte
Respostas:
[Eu estava lendo algo que achava totalmente não relacionado e depois tive um "momento aha", então acho que descobri pelo menos parte da resposta. Não tenho certeza se é isso que Gurvits tinha em mente, mas isso faz sentido para mim.]
A distribuição de variáveis n binários pode ser visto como um elemento do produto tensor R 2 ⊗ ⋯ ⊗ R 2 (n fatores) (na verdade, o espaço projetivo associado, mas nós vamos chegar a isso). Se rotular os elementos da base de cada cópia de R 2 por | 0 ⟩ e | 1 ⟩x1, . . . , xn R2⊗⋯⊗R2 R2 |0⟩ |1⟩ , uma base desse espaço do produto tensorial é fornecida pelo conjunto de todas as seqüências de n bits. Se temos um elemento desse produto tensorial cujos coeficientes somam 1, então podemos interpretar o coeficiente de qualquer cadeia de n bits dada como a probabilidade de ocorrência dessa cadeia - daí, uma distribuição de probabilidade! Agora, como queremos apenas distribuições de probabilidade (coeficientes somando 1), podemos normalizar qualquer vetor no produto tensorial para ter essa propriedade. Considerando apenas os tensores normalizados, estamos realmente considerando apenas elementos do espaço projetivo desse produto tensorial.
Agora temos que conectar a classificação do tensor à noção de Deolalikar de polilog-parametrizabilidade. De acordo com esta página por Terry Tao, parece que a noção de polylog-parametrizability de Deolalikar é que a distribuição pode ser "tidos em conta potenciais" como μ ( x 1 , . . . , X n ) = Π n i = 1 p i ( x i ; x p a ( i ) ) onde pa (i) é um conjunto de variáveis polylog (n), definidas como os "pais de i" eμ μ(x1,...,xn)=∏ni=1pi(xi;xpa(i)) é uma distribuição em x i que depende apenas dessas variáveis pai. Além disso, o gráfico direcionado dos pais deve ser acíclico.pi(−;xpa(i)) xi
Ainda estou com problemas para formular dois problemas e gostaria de receber mais respostas:
fonte