Belos resultados no TCS

29

Recentemente, um amigo meu (trabalhando no TCS) mencionou em uma conversa que "ele queria ver / conhecer todos (ou tanto quanto possível) os belos resultados do TCS em sua vida". Isso meio que me fez pensar sobre os belos resultados nessa área e, portanto, a motivação para a seguinte pergunta:

Quais resultados (ou idéias), na sua opinião, são bonitos na ciência da computação teórica? Seria ótimo se você mencionasse o motivo também. [Também seria bom, mesmo que as idéias sejam originárias da matemática, mas tenham despertado interesse e encontrado usos no TCS]

Eu começaria com uma resposta como argumento diagonal de Cantor, porque é simples, elegante e, no entanto, um resultado poderoso.

Nikhil
fonte
2
Quase duplicado desta questão (mas apenas próximo, porque os algoritmos são um subconjunto adequado do TCS) #
214 Jeff Jeff
3
Não sei se essa é uma boa pergunta em sua forma atual; consulte Subjetivo Bom, Subjetivo Ruim .
Kaveh
5
No mínimo, isso precisa ser CW.
Suresh Venkat
1
Talvez possamos modificar a questão para focar em resultados não algorítmicos - visto que o outro segmento é sobre algoritmos.
precisa
4
Em seu blog, Lance Fortnow tem listas de "teoremas favoritos" de cada década. Existem alguns resultados bonitos nessas listas.
MCH

Respostas:

21

A indecidibilidade do problema da parada.

Bonito por muitas razões. É um resultado impossível. A prova usa diagonalização. A declaração se aplica a uma ampla gama de modelos de computação. Ele pode ser formulado de várias maneiras, principalmente usando linguagens de programação padrão. Foi um resultado decisivo na história da computação. Estender esta declaração leva ao Teorema de Rice, aos graus de Turing e a muitos outros resultados interessantes. Etc. Etc. Etc.

Vijay D
fonte
17

Na minha opinião, a correspondência de Curry-Howard é um dos mais belos resultados teóricos e o que me levou a fazer pesquisas.

A idéia de que dois sistemas, programas, por um lado, e provas, por outro, têm exatamente a mesma estrutura, é quase de natureza filosófica: existem alguns "padrões de raciocínio" gerais?

Charles
fonte
Personnaly, I consider the Curry-Howard correspondance as the canonical example of duplicated theories due to different contexts whereas they have the same mathematical denotation. It should be rather considered as as shame of humans who aren't able to recognize existing structures and reinvent the wheel.
Ludovic Patey
11
Eu discordo completamente. Se Curry-Howard trata de seres insignificantes duplicando o trabalho, o mesmo ocorre com grande parte da matemática moderna, particularmente resultados relacionados a estruturas combinatórias, álgebra e topologia.
Vijay D
Você está certo no sentido de que a matemática consiste principalmente em encontrar correlações entre estruturas, e uma correlação é, por definição, uma não independência, revelando algumas duplicações em pelo menos algumas partes das teorias. Para ser consistente, devo concluir que a matemática é uma vergonha em sua essência, porque se pudéssemos ver duplicações, os teoremas seriam óbvios e a matemática inútil. ^^
Ludovic Patey
Turingoid: Eu concordo. Cheguei a conclusões semelhantes (sobre reinventar a roda) ao trabalhar com o conceito de simetria. É realmente uma pena que não possamos trabalhar no nível das relações primárias de simetria / assimetria. Na IMO, haverá um colapso de algumas das ciências reais em outras mais amplas quando finalmente avançarmos.
Mooncer 02/02/12
1
Se ao menos houvesse alguma maneira de automatizar o processo.
Jeffε
17

A possibilidade de criptografia de chave pública, por exemplo, esquema de troca de chaves Diffie-Hellman.

Ele quebra o preconceito muito forte que as pessoas precisam conhecer antes de trocar segredos em um canal inseguro.

aelguindy
fonte
16

Fiquei e ainda estou surpreso com o algoritmo de Euclides. Para mim, é uma prova do poder do pensamento humano - que as pessoas possam conceber esse algoritmo tão cedo (por volta de 300 aC, se eu confiar na minha memória).

Avanço rápido, há literatura entorpecente sobre o assunto. Eu acho que a lista de Scott Aaronson deve ser útil nesse sentido - embora, como o próprio Aaronson diz que não é completo (e não é totalmente teórico)

Akash Kumar
fonte
15

A técnica de Yao para usar o Teorema Minmax de von Neumann para provar limites mais baixos para algoritmos randomizados. Eu acho isso como algo fora deste mundo.

Método probabilístico para provar a existência de objetos que achamos difíceis de construir, incluindo o lema local de Lovasz. Essas técnicas são tão simples, mas tão poderosas.

Construções da teoria de codificação de Madhu Sudão usando polinômios.

Expansores (que começaram como gráficos Ramanujan) e Extratores e suas aplicações no Pseudoaleatório.

O algoritmo Fast Fourier Transform de Cooley e Tukey para encontrar DFT. (Embora, como assumido por Tukey, tenha sido uma redescoberta de uma técnica bem conhecida, pelo menos conhecida por Gauss!)

Teorema de Barrington, (um resultado muito surpreendente em seu tempo)

Teorema da repetição paralela (embora o resultado seja bom, a prova não é fácil)

Função Lovasz Theta para estimar a capacidade de Shannon de um gráfico.

Algoritmo elipsóide que mostrou que o LP está em P, surpreendendo muitos no momento em que muitos ainda suspeitavam que poderia ser NP-Complete.

karthik
fonte
O método probabilístico não é realmente um resultado. É apenas uma característica imediata da definição de probabilidade. Por razões semelhantes, é difícil argumentar que é especial para o TCS (apesar de haver um livro com o mesmo nome).
Lembik
14

surpreendentemente, uma das respostas mais óbvias ainda não foi adicionada. às vezes se trabalha demais com algo para vê-lo imparcialmente. a teoria da completude da PN lançada por Cook / Levin e imediatamente amplificada por Karp, que deu uma indicação precoce de sua onipresença, ainda mais presciente em retrospecto. sob muitos aspectos, este é o nascimento da moderna teoria da complexidade e da TCS e sua questão central / chave / notória P =? NP ainda está aberta após quatro décadas de intenso estudo / ataque. P =? NP tem um prêmio Claymath de US $ 1 milhão por sua solução.

a prova de Cook introduziu o NDTM, que aparentemente não é uma mera curiosidade teórica, mas uma parte quase extremamente fundamental do TCS. lançou mil navios, por assim dizer. além disso, ele resiste / desafia continuamente os esforços por meio de uma das outras técnicas importantes / poderosas do TCS mencionadas nesta lista: diagonalização, vista, por exemplo, nos resultados do Oracle / Relativization do BGS-75 - sugerindo que deve haver algo exótico e diferente sobre qualquer possível solução, também sugerida / ampliada pelo documento Razborov-Rudich Natural Proofs (prêmio Godel de 2007).

existem muitos, muitos árbitros sobre o assunto, mas um mais recente com alguns relatos de primeira mão da história pode ser encontrado em The P =? NP Question e Godel's Lost Letter por RJ Lipton

vzn
fonte
Na verdade, os NDTM já aparecem no jornal de Turing em 1936 como "máquinas de escolha"; veja Wikipedia.
28412 Jeff Jeff
1
oops, ok thx para correção. de qualquer maneira, o trabalho do cozinheiro é talvez o primeiro a mostrar que o NDTM é muito diferente de um DTM no sentido da teoria da complexidade.
vzn
Opa! Estava prestes a postar isso. Também fiquei surpreso por não ter sido publicado imediatamente.
Andrew D. King
14

Complexidade de Kolmogorov e o método da incompressibilidade .

O método de incompressibilidade - baseado na complexidade de Kolmogorov - forneceu uma maneira nova e intuitiva de formular provas. Em uma prova típica usando o método de incompressibilidade, primeiro se escolhe um objeto incompressível da classe em discussão. O argumento invariavelmente diz que, se uma propriedade desejada não se mantém, então, em contraste com a suposição, o objeto pode ser compactado e isso gera a contradição necessária.

Veja, por exemplo, a prova de que existe um número infinito de números primos, a prova alternativa do teorema da incompletude de Godel ou as conexões entre a Complexidade de Kolmogorov e a Complexidade Computacional .

Marzio De Biasi
fonte
11

Fiquei (e ainda estou) surpreso com o Segundo Teorema da Recursão de Kleene . Aparentemente, parece simples e pouco útil, mas depois descobri que é profundo, matematicamente e filosoficamente.

Quando também li sobre a variante comprovada nas Máquinas de Turing (afirmando muito informalmente que as máquinas podem obter suas próprias descrições ou equivalentemente que existem máquinas que produzem sua própria descrição, como um programa que se imprime ..), senti meu cérebro revirar. tão difícil, mas intrigado como nunca antes. Então, você vê como o teorema é usado para fornecer provas de uma linha para indecidibilidade de problemas de interrupção e irreconhecibilidade de máquinas mínimas ... etc.

aelguindy
fonte
11

Teoremas de codificação de fonte e canal de Shannon.

Uma definição matemática que distinguia entre transmitido, receptor e meio e que ignorava a semântica da mensagem era um grande passo. Entropia, no contexto de dados, é uma noção fantasticamente útil. E porque a teoria da informação deve ser mais conhecida.

Vijay D
fonte
Observe também que Shannon quase inventou a teoria da informação em seu artigo seminal.
Alejandro Piad
11

Um belo resultado que se baseia no teorema do PCP afirma que é computacionalmente difícil (NP-hard) satisfazer mais de 7/8 das cláusulas da fórmula 3SAT, mesmo para as satisfatórias.

Mohammad Al-Turkistany
fonte
4
Ainda mais surpreendente, já que 7/8 das cláusulas podem ser satisfeitas de maneira bastante trivial (por uma atribuição aleatória ou por um algoritmo ganancioso).
Jan Johannsen
1
Este resultado não é exatamente o teorema do PCP. Ele se baseia no teorema do PCP, mas precisa de muito mais trabalho que isso.
MCH
10

algoritmo shors para fatoração no BQP . na minha opinião / memória, a computação quântica era mais uma curiosidade teórica até esse resultado em 1994, quando parece que o interesse da literatura e da pesquisa em computação QM explodiu. ainda é indiscutivelmente um dos algoritmos QM mais importantes conhecidos. concedeu o prêmio Gödel de 1999. também revela que o fatoramento na computação QM é, de certo modo, um pouco melhor compreendido do que na computação clássica, onde, por exemplo, a questão de se o fatoramento é NP completo ainda está em aberto.

vzn
fonte
1
note que factoring sendo NP-completos seria um grande choque, porque implicaria coNP = NP
Sasho Nikolov
2
Eu colocaria o algoritmo de Simon junto com o de Shor.
Juan Bermejo Vega
10

Parece-me que o teste de primalidade do tempo P da AKS é bastante bonito em vários sentidos. um avanço na época, um dos grandes, mas bastante raros, vistos na teoria da complexidade em nossas vidas. ele resolve um problema que remonta à antiguidade grega e se relaciona com alguns dos primeiros algoritmos inventados (peneira de eratóstenes), ou seja, identificar os primos com eficiência. é uma prova construtiva de que a detecção de primalidade está em P, em oposição a muitas grandes provas que infelizmente não são construtivas.

está interconectado ao algoritmo de criptografia RSA mencionado em outra resposta, porque esse algoritmo precisa encontrar números primos grandes rapidamente, antes do algoritmo AKS, isso era apenas probabilisticamente possível. está fundamentalmente ligado à teoria dos números e outros problemas profundos, por exemplo, a conjectura de Riemann que, de muitas maneiras, é o domínio original da algorítmica.

concedeu o Prêmio Gödel de 2006 e o ​​Prêmio Fulkerson de 2006

vzn
fonte
3
Este é definitivamente um resultado importante, mas bonito? Sério?
28412 Jeff Jeff
Eu concordo com o comentário acima por JeffE. O resultado é muito significativo e foi isso que foi apontado na resposta, e não como (ou em que idéia (s) usada (s)) no teste de primalidade da AKS é bonito.
Nikhil 29/02
para mim, um resultado "muito significativo" é lindo. "sua milhagem pode variar".
vzn
7
Miller-Rabin é muito bonito, por outro lado
Sasho Nikolov
1
não sei por que as pessoas considerariam o algoritmo probabilístico superior em beleza ao algoritmo exato. sim, o AKS é amplamente baseado em Miller-Rabin, mas é um grande avanço removendo a randomização que foi perdida (ou talvez não seja possível) por décadas e finalmente encontrada. pra mim isso é lindo. além disso, a teoria dos números é apenas uma bela área de matemática / algoritmos [com a teoria dos números primos estrelada na teoria dos números], essa perspectiva pode ser vista, por exemplo, no famoso livro Mathematicians Apology, de GH Hardy.
vzn
10

Acho gráfico teorema menor de Robertson e Seymour foram as teorias mais maravilhosas que já vi (e o li parcialmente). Antes de tudo, é bastante complicado, mas as conjecturas básicas não são difíceis e pode ser que todos que trabalham no TCS possam adivinhar. O esforço extremo deles para prová-los foi maravilhoso. De fato, depois de ler alguns dos documentos dessa série, entendo o poder da mente humana.

Também o teorema menor do gráfico tem um grande impacto em diferentes campos do TCS. Como teoria dos grafos, algoritmo de aproximação, algoritmos parametrizados, lógica, ...

Saeed
fonte
9

Uma das minhas famílias favoritas de resultados é que vários problemas de natureza aparentemente infinita são decidíveis.

  1. A teoria de primeira ordem dos campos fechados reais é decidível (por Tarski). A geometria euclidiana também é um modelo dos axiomas dos campos reais reais, portanto, por Tarski, as instruções de primeira ordem nesse modelo são decidíveis.
  2. A aritmética do pré -burger é decidível.
  3. A teoria de primeira ordem de campos algebricamente fechados (isso inclui números complexos) é decidível.
  4. A lógica monádica de segunda ordem sobre palavras infinitas (e finitas) é decidível. A prova é elegante e pode ser ensinada a estudantes de graduação.
Vijay D
fonte
8

Existem muitos resultados encantadores sobre algoritmos probabilísticos, que são enganosamente simples e um grande passo à frente na maneira como pensamos sobre computação.

truque de von Neumann para implementar uma moeda justa com uma moeda tendenciosa. Estamos tão acostumados com algoritmos probabilísticos agora, mas de uma perspectiva externa, isso é incrivelmente legal. Tanto o algoritmo quanto a prova são acessíveis a quem conhece a probabilidade do ensino médio.

Vijay D
fonte
Eu esperava que você mencionasse o princípio minmax de Yao para encontrar limites mais baixos nos tempos de execução esperados dos algoritmos de Las Vegas. Ele conecta idéias da teoria dos jogos com probabilidade e algoritmos.
28412 karthik
Certo. Mas já estou enviando esta pergunta com respostas suficientes. Adicione seu resultado favorito como resposta.
precisa
8

O resultado de Tim Griffin, que controla operadores como call/ccos relacionados à lógica clássica, ampliando a correspondência de Curry-Howard.

call/ccE¬¬τcumaeueu/cc(E)τ¬τττ

Seu artigo , "Uma noção de controle de fórmulas como tipos", aparece no POPL 1990.

Sam Tobin-Hochstadt
fonte
7

O meu favorito é o algoritmo de tempo linear de Rabin para calcular o par de pontos mais próximo no plano (ou mais precisamente sua simplificação). Ele mostra a importância do modelo de computação, o poder dos algoritmos aleatórios e uma maneira elegante de pensar sobre algoritmos aleatórios.

Dito isto, o CS ainda está longe de alcançar o nível de elegância que se encontra em matemática (bem, eles tiveram 5000 anos de vantagem), de definições / resultados básicos em cálculo, topologia (teoremas de pontos fixos), combinatória, geometria (teorema de Pitágoras http : //en.wikipedia.org/wiki/File: Pythag_anim.gif ), etc.

Se você procura beleza, procure em qualquer lugar ...

Sariel Har-Peled
fonte
5

Esse resultado provavelmente é um pouco recente para ser qualificado como fundamental, mas acredito que a interpretação de tipos como homotopia se qualifica. Esta visão permite interpretar tipos da teoria construtiva de tipos como conjuntos com certas propriedades geométricas, neste caso homotopia .

Acho esse ponto de vista particularmente bonito, pois simplifica certas observações anteriormente complexas sobre a teoria dos tipos, por exemplo, o fato de que o "axioma K" não é derivável .

Uma visão geral desse campo de Steve Awodey pode ser encontrada aqui .

cody
fonte
2

A prova de zero conhecimento é um conceito muito interessante. Ele permite que uma entidade, o provador, prove (com alta probabilidade) a outra entidade, o verificador, que conhece "um segredo" (uma solução para algum problema de NP, uma raiz quadrada modular de algum número, uma discreta registro de algum número, etc.) sem fornecer nenhuma informação sobre o segredo (o que é difícil à primeira vista, pois a primeira idéia para provar que você conhece um segredo é realmente contar o segredo e que qualquer comunicação que possa resultar em o verificador acreditando que você conhece o segredo pode, a priori, apenas aumentar o conhecimento do verificador sobre o segredo).

Hugo Vincennes
fonte