Um dos problemas em aberto interessantes sobre os DFAs listados em Existe algum problema em aberto sobre os DFAs? é o tamanho de um DFA necessário para separar duas cadeias de comprimento . Estou curioso para saber se existem resultados sobre a capacidade de um DFA aleatório separar duas seqüências de caracteres (não aleatórias).
Claramente, um DFA aleatório com muitos estados separa seqüências com alta probabilidade. Especificamente, se , um DFA aleatório com estados provavelmente nunca revisitará o mesmo estado, uma vez que atinja o primeiro lugar onde e diferem e, portanto, separa e .
Podemos fazer melhor? Idealmente, qual é o menor st que um DFA aleatório com afirma separa seqüências de comprimento com probabilidade positiva (ou talvez probabilidade )? Uma breve pesquisa não encontrou muitos resultados nas propriedades de DFAs aleatórios; tudo o que pude encontrar foi http://arxiv.org/abs/1311.6830 .f ( n ) n ≥ 1 / 2
fonte
Respostas:
[Editar: esta resposta não funciona, ver comentários.]
Esta é apenas uma ideia informal e não sei se ajuda, mas é muito tempo para ser dado como um comentário. Além disso, eu não estou familiarizado com DFAs aleatórios, então talvez eu tenha uma intuição errada de como você deve raciocinar sobre probabilidades neles, mas espero que isso não seja totalmente inútil.
Suponho que seus limites dependam de quanto e v diferem; se não o fizerem, parece-me claro que, na pior das hipóteses, as cordas diferem apenas pelo primeiro caractere (cordas que diferem em um conjunto X de posições têm mais chances de serem separadas do que cordas que diferem em um conjunto Y ⊂ X de posições , Eu diria, e colocar a diferença o mais cedo possível oferece a oportunidade de ressincronizar).u v X Y⊂X
Também examinarei a probabilidade de as palavras se distinguirem, ou seja, atingirem estados diferentes. Acho que você precisaria se adaptar para ser aceito ou rejeitado, com base em como seus DFAs aleatórios alocam estados finais. Se cada estado tem uma probabilidade 1/2 de ser final, então, quando as seqüências terminam no mesmo estado, elas não são distinguidas e, quando terminam em estados diferentes, têm probabilidade 1/2 de ser distinguida.
Agora, considerarei a palavra obtida de u e v da seguinte forma: w i = 1 se u i = v i e w i = 0 caso contrário. Eu acho que está claro que w é a única coisa interessante a considerar sobre u e v .w u v wi=1 ui=vi wi=0 w u v
Agora, definir a probabilidade de que estamos no mesmo estado depois de ler prefixos de comprimento i de u e v , e q ( i ) = 1 - p ( i ) a probabilidade de que não somos.p(i) i u v q(i)=1−p(i)
Penso que temos quando w i + 1 é 1 . Intuitivamente, estamos no mesmo estado depois de ler as letras i + 1 , quando estávamos no mesmo estado depois de ler i , ou quando estávamos em dois estados (aleatórios) diferentes, desenhamos duas transições para estados aleatórios, e elas aconteceram com seja o mesmo. Da mesma forma, temos p ( i + 1 ) = 1p(i+1)=p(i)+q(i)/n wi+1 1 i+1 i quando w i + 1 é 0 : você está desenhando dois estados aleatórios, não importa de onde você começou.p(i+1)=1/n wi+1 0
A partir disso, acho que você pode calcular a probabilidade de estar no mesmo estado depois de ler e v .u v
fonte