AR (1) é um processo de Markov?

13

O processo AR (1) como yt=ρyt1+εt um processo de Markov?

Se for, então VAR (1) é a versão vetorial do processo de Markov?

Porco voador
fonte

Respostas:

18

O resultado é válido seguinte: Se são independentes valores Levando-se em E e f 1 , f 2 , ... são funções f n : F × E F , em seguida, com X n definida recursivamente comoϵ1,ϵ2,Ef1,f2,fn:F×EFXn

Xn=fn(Xn1,ϵn),X0=x0F

o processo em F é um processo de Markov iniciando em x 0 . O processo é homogêneo no tempo se os ϵ 's forem idênticos distribuídos e todas as funções f forem idênticas.(Xn)n0Fx0ϵf

O AR (1) e o VAR (1) são ambos processos dados neste formulário com

fn(x,ϵ)=ρx+ϵ.

Portanto, eles são processos homogêneos de Markov se os sãoϵ

Tecnicamente, os espaços e F precisam de uma estrutura mensurável e as funções f devem ser mensuráveis. É bastante interessante que um resultado inverso seja válido se o espaço F for um espaço Borel . Para qualquer processo de Markov ( X n ) n 0 em um espaço Borel F, existem variáveis ​​aleatórias uniformes ϵ 1 , ϵ 2 , em [ 0 , 1 ] e funções f n : F ×EFfF(Xn)n0Fϵ1,ϵ2,[0,1] tal que com probabilidade um X n = f n ( X n - 1 , ϵ n ) . Veja a Proposição 8.6 em Kallenberg,Fundamentos da Probabilidade Moderna.fn:F×[0,1]F

Xn=fn(Xn1,ϵn).
NRH
fonte
6

Um processo é um processo AR (1) seXt

Xt=c+φXt1+εt

onde os erros, são IID. Um processo tem a propriedade Markov seεt

P(Xt=xt|entire history of the process)=P(Xt=xt|Xt1=xt1)

Desde a primeira equação, a distribuição de probabilidade de claramente depende apenas de X t - 1 , portanto, sim, um processo AR (1) é um processo de Markov.XtXt1

Macro
fonte
3
-1, o mesmo motivo de outro pôster. A resposta implica que é fácil verificar a propriedade Markov citada. Não é, a menos que demonstrado o contrário. Observe também que os processos AR (1) podem ser definidos com não-iid, portanto, isso também deve ser tratado. εt
Mvctas #
1
O principal problema é que nós podemos facilmente escrever e, em seguida, a última frase implicaria que P ( X t = x t | história inteira ) = P ( X t = x t | X t - 2 = x t - 2 )Xt=c+ϕc+ϕ2Xt2+ϕεt1+εtP(Xt=xt|entire history)=P(Xt=xt|Xt2=xt2).
Mvctas
Bem, processos de Markov fazer depender de quando você não tiver também condicionando a X t - 1 . Suponho que um argumento mais formal assumiria que você está condicionando seqüencialmente (ou seja, você não inclui X t - 2, a menos que já tenha condicionado em X t - 1 ). Xt2Xt1Xt2Xt1
Macro
e o que você escreveu lá realmente depende de e X t - 1 (através do termo de erro ε t - 1 ). O ponto principal é que a probabilidade conjunta pode ser escrita facilmente como um produto de probabilidades condicionais, que exigem apenas condicionamento no momento anterior. Através de redundâncias de parâmetro, você pode fazer parecer que a distribuição de X t depende de X t - 2 , mas, depois de condicionar em X t - 1Xt2Xt1εt1XtXt2Xt1, it clearly doesn't. (p.s. I was using a standard definition of an AR(1) process per Shumway and Stoeffer's time series book)
Macro
Note I do not say that the answer is incorrect. I am just nitpicking at the details, i.e. that the second equality is intuitively evident, but if you want to prove it formally it is not so easy, IMHO.
mpiktas
2

What is a Markov process? (loosely speeking) A stochastic process is a first order Markov process if the condition

P[X(t)=x(t)|X(0)=x(0),...,X(t1)=x(t1)]=P[X(t)=x(t)|X(t1)=x(t1)]

holds. Since next value (i.e. distribution of next value) of AR(1) process only depends on current process value and does not depend on the rest history, it is a Markov process. When we observe the state of autoregressive process, the past history (or observations) do not supply any additional information. So, this implies that probability distribution of next value is not affected (is independent on) by our information about the past.

The same holds for VAR(1) being first order multivariate Markov process.

Tomas
fonte
Hm, if εt are not iid, I do not think it holds. Also you did not give a proof, only cited the Markov property.
mpiktas
I thought that Markov Process refers to the continuous case. Usual AR time series are discrete, so it should correspond to a Markov Chain instead of a Markov Process.
joint_p
So we observe state of autoregressive process, Xt. The past history is Xt1,Xt2,.... This does not supply any additional information?
mpiktas
@joint_p, the terminology is not completely consistent in the literature. Historically, as I see it, the usage of "chain" instead of "process" was typically a reference to the state space of the process being discrete but occasionally also time being discrete. Today many use "chain" to refer to discrete time but allowing for a general state space, as in Markov Chain Monte Carlo. However, using "process" is also correct.
NRH
1
-1, since the proof of Markovian property is not given. Also the hand waving argument is not consistent with formula given. current state = t, past means t1,t2,..., next means t+1, but the formula does not involve t+1.
mpiktas