Gostaria apenas que alguém confirmasse meu entendimento ou se estou perdendo alguma coisa.
A definição de um processo de markov diz que o próximo passo depende apenas do estado atual e não do estado passado. Então, digamos que tínhamos um espaço de estado de a, b, c, d e passamos de a-> b-> c-> d. Isso significa que a transição para d poderia depender apenas do fato de estarmos em c.
No entanto, é verdade que você poderia tornar o modelo mais complexo e meio que "contornar" essa limitação? Em outras palavras, se seu espaço de estado fosse agora aa, ab, ac, ad, ba, bb, bc, bd, ca, cb, cc, cd, da, db, dc, dd, o que significa que seu novo espaço de estado se tornará o estado anterior combinado com o estado atual, a transição acima seria * a-> ab-> bc-> cd e, portanto, a transição para cd (equivalente no modelo anterior ed) agora é "dependente" de um estado que, se modelado de forma diferente, é um estado anterior (refiro-me a ele como um subestado abaixo).
Estou certo de que alguém pode fazê-lo "depender de estados anteriores (subestado)" (sei tecnicamente que não existe no novo modelo, pois o subestado não é mais um estado real) manter a propriedade markov expandindo o espaço de estado como eu fiz? Assim, poderia-se criar um processo de markov que poderia depender de qualquer número de sub-estados anteriores.
fonte
A definição de um processo de markov diz que o próximo passo depende apenas do estado atual e não do estado passado.
Você pode dar uma olhada em artigos recentes, como cadeias de Markov multivariadas de ordem superior e suas aplicações, pois esse campo está avançando silenciosamente rapidamente.
fonte