Então, vamos comparar duas distribuições normais
Do this x times:
runs <- 100000
a.samples <- rnorm(runs, mean = 5)
b.samples <- rbeta(runs, mean = 0)
mc.p.value <- sum(a.samples > b.samples)/runs
Os valores mc.p. abaixo de nosso alfa (0,05) dividido por x dariam a taxa de erro do tipo 1. Nosso H0 é a.samples> = b.samples. (Inspirado em https://www.countbayesie.com/blog/2015/3/3/6-amazing-trick-with-monte-carlo-simulations )
Mas, pensei que uma simulação montecarlo tivesse que seguir os seguintes passos:
Algoritmo:
- Configure alguma distribuição para os dados, f () ou f (θ) e alguns H0
- Repita as duas etapas a seguir várias vezes: (a) Simule um conjunto de dados de acordo com H0 (b) Calcule T (x) usando os dados simulados
- Adicione T (X) avaliado a partir dos dados de amostra
- Encomende todos os T (x) s
- O valor p é a proporção de T (x) s tão extrema ou mais extrema que a dos dados da amostra
Portanto, o primeiro trecho de código não é uma simulação de boa-fé monte carlo? e o valor p é válido porque, se você fizer um gráfico, não obtém a taxa de erro de tipo 1 de 5% esperada que se poderia esperar de um teste estatístico.