Estou comparando a distribuição de tamanho das árvores em seis pares de parcelas em que uma parcela recebeu um tratamento e a outra um controle. Usando um teste de Kolmogorov-Smirnov em cada par de parcelas, acho que varia de 0,0003707 a 0,75 . Existem métodos apropriados para lidar com todas as réplicas juntas, como uma extensão de várias amostras do teste KS, ou existe um teste de acompanhamento apropriado? Ou devo apenas concluir algo como "A distribuição de tamanho difere significativamente ( p < 0,05 ) em 2 pares de parcelas e marginalmente ( p = 0,59 ) em um par de parcelas".
nonparametric
kolmogorov-smirnov
N Brouwer
fonte
fonte
Respostas:
Na verdade, existem alguns exemplos de testes KS. Por exemplo, um teste Kolmogorov-Smirnov de amostra r comr ≥ 2 que, acredito, tem bom poder. Uma pré-impressão desse lindo papel está disponível aqui . Eu também conheço os Análogos da K-Sample dos Kolmogorov-Smirnov e Cramer-V. Testes de Mises (mas eles têm menos poder, até onde eu sei).
fonte
Existe um pacote R kSamples do que fornece, entre outras coisas, um teste Anderson-Darling não paramétrico de amostra-k. A hipótese nula é que todas as k amostras vieram da mesma distribuição que não precisa ser especificada. Talvez você possa usar isso.
Pequeno exemplo na comparação de amostras distribuídas normal e gama dimensionadas para que tenham a mesma média e variação:
fonte
Algumas abordagens:
Use os valores p em pares, mas ajuste-os para várias comparações usando algo como os métodos de ajuste da taxa de Bon Feroni ou False Discovery (a primeira provavelmente será um pouco conservadora). Então você pode ter certeza de que qualquer um que ainda seja significativamente diferente provavelmente não se deve aos vários testes.
Você pode criar um teste geral no sabor da KS, encontrando a maior distância entre qualquer uma das distribuições, ou seja, plotar todos os cd's empíricos e encontrar a maior distância da linha inferior à linha superior, ou talvez a distância média ou alguma outra a medida. Em seguida, você pode descobrir se isso é significativo fazendo um teste de permutação: agrupe todos os dados em uma lixeira grande, depois divida-os aleatoriamente em grupos com o mesmo tamanho de amostra que os grupos originais, recompute a estatística nos dados permutados e repita o processo muitas vezes (999 ou mais). Em seguida, veja como seus dados originais se comparam aos conjuntos de dados permutados. Se a estatística de dados original cair no meio das permutadas, não há diferenças significativas encontradas, mas se estiver no limite, ou além de qualquer um dos permutados, há algo significativo acontecendo (mas isso não indica quais são diferentes). Provavelmente, você deve tentar isso com dados simulados, onde sabe que existe uma diferença grande o suficiente para ser interessante apenas para verificar o poder desse teste e encontrar as diferenças interessantes.
fonte