Estimativa de caminhada aleatória com AR (1)

10

Quando eu estimo uma caminhada aleatória com um AR (1), o coeficiente é muito próximo de 1, mas sempre menor.

Qual é a razão matemática de o coeficiente não ser maior que um?

Marco
fonte
Eu tentei com a caixa de ferramentas Matlab e também com meu script no arima (onde o coeficiente é delimitado em [-10,10] e o resultado é o mesmo). Eu tento com um OLS simples e o resultado é o mesmo.
28515 Marco Marco
A estimativa é enviesada para baixo, temos que ler os artigos de Dickey e Fuller.
Marco

Respostas:

12

Estimamos pelo OLS o modelo

xt=ρxt1+ut,E(ut{xt1,xt2,...})=0,x0=0

Para uma amostra de tamanho T, o estimador é

ρ^=t=1Txtxt1t=1Txt12=ρ+t=1Tutxt1t=1Txt12

Se o verdadeiro mecanismo de geração de dados for uma caminhada aleatória pura, então eρ=1

xt=xt1+utxt=i=1tui

A distribuição amostral do estimador OLS, ou equivalente, a distribuição amostral de , não é simétrica em torno de zero, mas sim inclinada para a esquerda de zero, com % dos valores obtidos (isto é, massa de probabilidade ) sendo negativa e, portanto, obtemos mais frequentemente do que não . Aqui está uma distribuição de frequência relativaρ^168ρ^<1

insira a descrição da imagem aqui

Mean:0.0017773Median:0.00085984Minimum: 0.042875Maximum: 0.0052173Standard deviation: 0.0031625Skewness: 2.2568Ex. kurtosis: 8.3017

Às vezes, isso é chamado de distribuição "Dickey-Fuller", porque é a base dos valores críticos usados ​​para executar os testes de raiz unitária com o mesmo nome.

Não me lembro de ter visto uma tentativa de fornecer intuição para o formato da distribuição da amostra. Estamos olhando para a distribuição amostral da variável aleatória

ρ^1=(t=1Tutxt1)(1t=1Txt12)

Se for Normal Normal, o primeiro componente de é a soma de distribuições normais de produto não independentes (ou "produto normal"). O segundo componente de é o recíproco da soma das distribuições Gamma não independentes (qui-quadrados em escala de um grau de liberdade, na verdade). utρ^1ρ^1

Como também não temos resultados analíticos, vamos simular (para um tamanho de amostra de ). T=5

Se somarmos normais de produto independentes, obtemos uma distribuição que permanece simétrica em torno de zero. Por exemplo:

insira a descrição da imagem aqui

Porém, se somarmos Normas do produto não independentes, como é o caso, obtemos

insira a descrição da imagem aqui

que é inclinado para a direita, mas com mais probabilidade de massa alocada para os valores negativos. E a massa parece ser empurrada ainda mais para a esquerda se aumentarmos o tamanho da amostra e adicionarmos mais elementos correlatos à soma.

O recíproco da soma de Gammas não independentes é uma variável aleatória não negativa com inclinação positiva.

Então podemos imaginar que, se pegarmos o produto dessas duas variáveis ​​aleatórias, a massa de probabilidade comparativamente maior no orifício negativo da primeira, combinada com os valores somente positivos que ocorrem na segunda (e a assimetria positiva que pode adicionar um traço de valores negativos maiores), crie a inclinação negativa que caracteriza a distribuição de . ρ^1

Alecos Papadopoulos
fonte
Uau, boa análise! Você poderia indicar qual das suposições OLS padrão é violada aqui?
Richard Hardy
@RichardHardy Thanks. Voltarei mais tarde para responder ao seu comentário.
Alecos Papadopoulos 28/03
Ainda estou curioso sobre as suposições da OLS ... Agradecemos antecipadamente!
Richard Hardy
Estou um pouco confuso aqui. No caso de uma caminhada aleatória em que tentamos estimar a equação , devido às realizações cointegrantes de , devemos convergir na taxa superconsistente. Sua simulação também indica inconsistência? Xt+1=αXt+ϵXt+1Xt
Cagdas Ozgenc
@CagdasOzgenc Não existe tal coisa. A consistência é uma propriedade assintótica, e aqui eu explico por que, em amostras finitas, devemos exceto obter "com mais frequência do que não" (devido à forma como a distribuição do estimador tem mais probabilidade massa nos números negativos). ρ^<1ρ^1
Alecos Papadopoulos
6

Esta não é realmente uma resposta, mas é muito longa para um comentário, então eu posto isso de qualquer maneira.

Consegui obter um coeficiente maior que 1 duas vezes em cem para um tamanho de amostra de 100 (usando "R"):

N=100                   # number of trials
T=100                   # length of time series
coef=c()
for(i in 1:N){
 set.seed(i)
 x=rnorm(T)             # generate T realizations of a standard normal variable
 y=cumsum(x)            # cumulative sum of x produces a random walk y
 lm1=lm(y[-1]~y[-T])    # regress y on its own first lag, with intercept
 coef[i]=as.numeric(lm1$coef[1])
}
length(which(coef<1))/N # the proportion of estimated coefficients below 1

As realizações 84 e 95 têm coeficiente acima de 1, portanto nem sempre é inferior a um. No entanto, a tendência é claramente ter uma estimativa tendenciosa para baixo. As perguntas permanecem, por quê ?

Editar: as regressões acima incluíram um termo de interceptação que não parece pertencer ao modelo. Depois que a interceptação é removida, recebo muitas outras estimativas acima de 1 (3158 de 10000) - mas ainda está claramente abaixo de 50% de todos os casos:

N=10000                 # number of trials
T=100                   # length of time series
coef=c()
for(i in 1:N){
 set.seed(i)
 x=rnorm(T)             # generate T realizations of a standard normal variable
 y=cumsum(x)            # cumulative sum of x produces a random walk y
 lm1=lm(y[-1]~-1+y[-T]) # regress y on its own first lag, without intercept
 coef[i]=as.numeric(lm1$coef[1])
}
length(which(coef<1))/N # the proportion of estimated coefficients below 1
Richard Hardy
fonte
exatamente, nem sempre "menor", mas na maioria dos casos. É obviamente um resultado falso. por que razão?
28315 Marco Marco
2
O coeficiente é estimado pelo OLS quase como uma correlação entre e , o que pode explicar o porquê. xtxt1
Xi'an