Posso usar o teste Kolmogorov-Smirnov e estimar os parâmetros de distribuição?

14

Eu li que o teste de Kolmogorov-Smirnov não deve ser usado para testar a qualidade do ajuste de uma distribuição cujos parâmetros foram estimados a partir da amostra.

Faz sentido dividir minha amostra em duas e usar a primeira metade para estimativa de parâmetros e a segunda para o teste KS?

desde já, obrigado

sortega
fonte
1
Em que distribuição você deseja testar e por quê?
gung - Restabelece Monica
Eu suspeito que os dados seguem uma distribuição exponencial.
Sort4

Respostas:

13

A melhor abordagem é calcular o valor crítico do valor-p por simulação. O problema é que, quando você estima os parâmetros a partir dos dados, em vez de usar valores hipotéticos, a distribuição da estatística KS não segue a distribuição nula.

Em vez disso, você pode ignorar os valores-p do teste KS e simular vários conjuntos de dados da distribuição candidata (com um conjunto significativo de parâmetros) do mesmo tamanho que os dados reais. Em seguida, para cada conjunto, estime os parâmetros e faça o teste KS usando os parâmetros estimados. O valor de p será a proporção das estatísticas de teste dos conjuntos simulados que são mais extremos que os dados originais.

Greg Snow
fonte
2
Acho a solução um pouco confusa (pelo menos para mim); o que você quer dizer com "um conjunto significativo de parâmetros" para a distribuição de candidatos? Você inicialmente não conhece os parâmetros da distribuição candidata, como saberia o que é um "conjunto significativo de parâmetros"?
Néstor
Você pode tentar conjuntos diferentes de parâmetros para ver se isso faz diferença ou não (para o normal, mas algumas distribuições). Em seguida, pense na ciência por trás dos seus dados ou converse com um especialista na área; você deve ter uma idéia geral por onde começar; por exemplo, eu tenho uma ideia da altura média dos homens adultos na Nigéria, mas eu sou bastante certo de que é positivo e tem menos de 3 metros.
Greg Neve
@GregSnow Me deparei com este post, pois é relevante para o meu trabalho atual. Eu queria saber se existe alguma justificativa teórica para o método que você sugere? Ou seja, como sabemos que o "valor p" proposto é realmente distribuído uniformemente de 0 a 1? O valor-p proposta faz nto parecem ser o valor-p convencional, pois a hipótese nula é agora um conjunto de distribuições
renrenthehamster
@renrenthehamster, você tem um bom argumento, é por isso que sugeri a simulação em diferentes condições. Para algumas distribuições (eu esperaria o normal), isso não importa muito, mas outras podem exigir pontos de corte diferentes para diferentes valores de parâmetros verdadeiros. Se for esse o caso, o usuário (você) precisará encontrar um nulo significativo para testar, que inclua o formato da distribuição e um conjunto ou intervalo de parâmetros com os quais você se sinta confortável.
Greg Neve
1
@LilyLong, as simulações costumavam ser muito mais difíceis e demoradas; portanto, os testes foram desenvolvidos para serem mais rápidos / fáceis do que a simulação, algumas das tabelas iniciais foram criadas por simulação. Agora, muitos testes podem ser facilmente substituídos por simulação, mas provavelmente permanecerão conosco por mais algum tempo devido à tradição e simplicidade.
Greg Neve
7

A divisão de amostra pode talvez reduzir o problema com a distribuição da estatística, mas não a remove.

Sua ideia evita o problema de que as estimativas serão "muito próximas" em relação aos valores da população, porque são baseadas na mesma amostra.

Você não está evitando o problema de que eles ainda estão estimados. A distribuição da estatística de teste não é tabulada.

Nesse caso, aumenta a taxa de rejeição abaixo do nulo, em vez de reduzi-la drasticamente.

Uma escolha melhor é usar um teste em que os parâmetros não sejam assumidos como conhecidos, como um Shapiro Wilk.

Se você está casado com um teste do tipo Kolmogorov-Smirnov, pode adotar a abordagem do teste de Lilliefors.

Ou seja, para usar a estatística KS, mas fazer com que a distribuição da estatística do teste reflita o efeito da estimativa de parâmetros - simule a distribuição da estatística do teste na estimativa de parâmetros. (Já não é livre de distribuição, você precisa de novas tabelas para cada distribuição.)

http://en.wikipedia.org/wiki/Lilliefors_test

O Liliefors usou simulação para o caso normal e exponencial, mas você pode fazer isso facilmente para qualquer distribuição específica; em algo como R, é questão de momentos para simular 10.000 ou 100.000 amostras e obter uma distribuição da estatística de teste sob o valor nulo.

[Uma alternativa pode ser considerar o Anderson-Darling, que tem o mesmo problema, mas que - a julgar pelo livro de D'Agostino e Stephens ( técnicas de adequação ) parece ser menos sensível a ele. Você pode adaptar a ideia de Lilliefors, mas eles sugerem um ajuste relativamente simples que parece funcionar bastante bem.]

Mas ainda existem outras abordagens; existem famílias de testes suaves de qualidade do ajuste, por exemplo (por exemplo, consulte o livro de Rayner e Best) que em vários casos específicos podem lidar com a estimativa de parâmetros.

* o efeito ainda pode ser bastante grande - talvez maior do que normalmente seria considerado aceitável; Momo tem razão em expressar preocupação com isso. Se uma taxa de erro mais alta do tipo I (e uma curva de potência mais plana) for um problema, isso pode não ser uma melhoria!

Glen_b -Reinstate Monica
fonte
1
você poderia explicar como "a amostra dividir resolveria o problema com a distribuição da estatística"? Na minha opinião, os parâmetros seriam estimados a partir de uma subamostra e, em seguida, inseridos no teste KS da segunda subamostra, mas os parâmetros ainda estariam associados ao erro de amostragem que não é contabilizado na distribuição nula. Parece-me que, com uma idéia semelhante, poderia-se separar uma amostra de uma distribuição normal, estimar desvios padrão em uma subamostra e realizar uma comparação média com o normal padrão em vez do t-dist na segunda subamostra.
Momo
1
@Momo 'resolver' é muito forte; 'reduzir' é melhor. Se os parâmetros são estimados a partir as mesmas observações que você está testando, então - a menos que você conta para esse efeito - os desvios da amostra da distribuição será 'muito pequeno' - a taxa de rejeição vai waay para baixo. O uso de outra amostra remove esse efeito. Os valores dos parâmetros resultantes da estimativa de uma segunda amostra ainda sofrem com erro de amostragem. Isso terá algum impacto no teste (aumenta a taxa de erro do tipo I), mas não terá o efeito dramático de polarização que o uso dos mesmos dados para ambos.
Glen_b -Reinstala Monica
@Momo Eu editei meu comentário para remover 'resolver' e substituí-lo por alguma explicação
Glen_b -Reinstate Monica 4/12/12
5

Receio que isso não resolva o problema. Acredito que o problema não é que os parâmetros sejam estimados a partir da mesma amostra, mas de qualquer amostra. A derivação da distribuição nula usual do teste KS não leva em consideração nenhum erro de estimativa nos parâmetros da distribuição de referência, mas os vê como dados. Veja também Durbin 1973, que discute detalhadamente essas questões e oferece soluções.

Momo
fonte
1
Estes são realmente dois problemas separados. Se você usar os mesmos dados para estimar os parâmetros e realizar o Teste KS, geralmente verá valores de p inflados , porque você adapta essencialmente a distribuição aos dados antes de testá-los. Se você usar dois conjuntos independentes de amostras, no entanto, esse não é o caso. No entanto, estimativas imprecisas de parâmetros podem diminuir os valores de p obtidos neste caso, porque agora você está essencialmente testando uma distribuição (ligeiramente) errada .
Fgp