Um método ingênuo para aproximar uma distribuição normal é adicionar talvez variáveis aleatórias de IID uniformemente distribuídas em , depois mais recentes e redimensionar, contando com o Teorema do Limite Central. ( Observação : existem métodos mais precisos, como a transformação Box-Muller .) A soma das variáveis aleatórias IID é conhecida como distribuição uniforme da soma ou distribuição Irwin-Hall .
Qual o tamanho do erro na aproximação de uma distribuição de soma uniforme por uma distribuição normal?
Sempre que esse tipo de pergunta surge para aproximar a soma das variáveis aleatórias do IID, as pessoas (inclusive eu) trazem o Teorema de Berry – Esseen , que é uma versão eficaz do Teorema do Limite Central, uma vez que existe o terceiro momento:
onde é a função de distribuição cumulativa para a soma redimensionada de variáveis aleatórias do IID, é o terceiro momento central absoluto, é o desvio padrão e é uma constante absoluta que pode ser considerada ou até .
Isso é insatisfatório. Parece-me que a estimativa de Berry-Esseen é a mais próxima possível das distribuições binomiais discretas, com o maior erro em para uma distribuição binomial simétrica. O maior erro ocorre no maior salto. No entanto, a distribuição de soma uniforme não tem saltos.
Testes numéricos sugerem que o erro diminui mais rapidamente que .
Usando , a estimativa de Berry – Esseen é| F n ( x ) - Φ ( x ) | ≤ 1
que para é de cerca de , e , respectivamente. As diferenças máximas reais para parecem ser cerca de , e , respectivamente, que são muito menores e parecem cair como vez de .0,205 0,145 0,103 n = 10 , 20 , 40 0,00281 0,00139 0,000692 c / n
fonte
Respostas:
Seja iid variáveis aleatórias e considere a soma normalizada e a norm onde é a distribuição de .U ( - b , b ) S n = √você1, U2, … você( - b , b )
Lema 1 ( Uspensky ): O seguinte limite em é válido.δn
Prova . Ver JV Uspensky (1937), Introdução à probabilidade matemática , Nova York: McGraw-Hill, p. 305
Isso foi posteriormente aprimorado por R. Sherman para o seguinte.
Lema 2 ( Sherman ): A seguinte melhoria no limite de Uspensky é válida.
Prova : Ver R. Sherman, Erro da aproximação normal à soma de N variáveis aleatórias , Biometrika , vol. 58, n. 2, 396-398.
A prova é uma aplicação bastante direta da desigualdade do triângulo e dos limites clássicos na cauda da distribuição normal e em aplicado às funções características de cada uma das duas distribuições.( pecadox ) / x
fonte