Gostaria de calcular alguma medida de volatilidade ou ruído para dados de séries temporais estacionárias. Pode ser uma medida para uma única série temporal ou uma medida relativa que compara várias séries temporais juntas. Vamos supor que um teste Dickey-Fuller já tenha sido realizado e todas as séries temporais não tenham uma raiz unitária.
Quais são alguns exemplos dessas métricas para medir ruído / volatilidade? Eu considerei o simples "coeficiente de variabilidade" que é DP / média. No entanto, eu estou querendo saber se existem outras maneiras de medir isso. Se ajudar, eu uso R.
Sei que esse é um pedido vago e peço desculpas. Eu realmente aprecio quaisquer sugestões ou fontes para aprender sobre o tópico.
fonte
Como observado, as abordagens estatísticas típicas baseadas nas normas L2 incluem o desvio padrão, bem como o coeficiente de variação (que, para métricas não-negativas, produz uma medida invariável de escala), bem como o índice de dispersão (razão da variação para a média). Se os dados forem financeiros, também é possível calcular medidas de risco "de cabeça para baixo" e / ou "de cabeça para baixo", também conhecidas como semi-desvio acima ou abaixo da meta , conforme descrito nestes artigos da wiki ( https: //en.wikipedia .org / wiki / Downside_risk ou https://en.wikipedia.org/wiki/Upside_risk ).
As medidas baseadas na norma L1 são possíveis, por exemplo, o MAD ou desvio absoluto médio e o MADM, o desvio absoluto médio da mediana. Outras estimativas não paramétricas incluem a faixa interquartil, a faixa interdecil, bem como as métricas discutidas por Rousseeuw e Croux em seu artigo, Alternativas ao desvio absoluto médio (cópia ungated aqui ... http://web.ipac.caltech.edu/ staff / fmasci / home / astro_refs / BetterThanMAD.pdf ).
As abordagens teóricas da informação incluem medidas de entropia ( https://en.wikipedia.org/wiki/Entropy_(information_theory) ), como o U de Theil ou as muitas variantes de índices de diversidade de informações (por exemplo, https: //en.wikipedia .org / wiki / Generalized_entropy_index ).
A afirmação de Hyndman é que sua métrica MASE é ideal para dados de séries temporais. MASE é uma função de perda normalizada. Após criar os dados de treinamento e teste, os resíduos dos dados de teste são normalizados ou divididos pelo erro médio nos dados de treinamento. Se MASE <1, o modelo proposto é uma melhoria, em média, acima de um passo à frente, previsão de caminhada aleatória.
Veja seu artigo, Hyndman e Koehler, Outra análise das medidas de precisão das previsões, International Journal of Forecasting, 22 (4): 679-688, 2006, https://robjhyndman.com/papers/mase.pdf , p. 3
fonte