Confunde / surpreende que o Binomial tenha uma variação proporcional a . Equivalentemente, as informações de Fisher são proporcionais a . Qual é a razão para isto? Por que as informações de Fisher são minimizadas em ? Ou seja, por que a inferência é mais difícil em ?
Contexto:
Estou trabalhando em uma calculadora de tamanho de amostra, e a fórmula para , o tamanho da amostra necessário, é um fator crescente de , o resultado de uma estimativa de variação na derivação.
variance
binomial
interpretation
Cam.Davidson.Pilon
fonte
fonte
Respostas:
Para ver, de maneira intuitiva, que a variação é maximizada em , considere p igual a 0,99 (resp. P = 0,01 ). Então uma amostra de X ∼ Bernoulli ( p ) provavelmente conterá muitos 1 's (resp. 0 ' s) e apenas alguns 0 's (resp. 1 ' s). Não há muita variação lá.p=0.5 p 0.99 p=0.01 X∼Bernoulli(p) 1 0 0 1
fonte
A inferência é "duro" para 'no meio, porque uma amostra com p perto do meio é consistente com uma ampla gama de p . Perto das extremidades, não pode estar tão longe - porque as extremidades são "barreiras" além das quais p não pode ir.p p^ p p
Acho que a intuição é mais fácil quando analisada em termos de variação.
A intuição de que a variação de um binômio é grande no meio e pequena nas extremidades é bastante direta: perto dos pontos de extremidade, não há espaço para os dados se "espalharem". Considere pequeno - porque a média é próxima de 0, a variação não pode ser grande - para os dados obterem uma média de p, ele pode ficar tão longe da média.p p
Vamos considerar a variação da proporção da amostra em uma série de ensaios de Bernoulli. Aqui . Portanto, mantendo n fixo e variando p , a variação é muito menor para p próximo a 0:Var(p^)=p(1−p)/n n p p
Proporção de amostra em amostras binomiais - aqui é apenas uniforme aleatório; o estojo azul tem média de 0,03, o preto significa 0,5 (alguma instabilidade adicionada para que os pontos não se acumulem demais e percam detalhes)y
A probabilidade correspondente funciona:
Em cada caso, preste atenção às linhas que marcam a média. À medida que a linha média fica mais "presa" contra a barreira, os pontos abaixo da média só podem ficar um pouco abaixo.
Como resultado, os pontos acima da média normalmente não podem ficar muito acima da média (porque, caso contrário, a média mudaria!). Perto de os pontos finais não "aumentam" da mesma maneira que quando existe uma barreira lá.p=12
Vemos ao mesmo tempo por que a distribuição deve ser inclinada nos extremos; para a variável aleatória p ser ainda algum tempo a ser mais do que pp^ p acima da média, deve ser correspondentemente mais probabilidade esmagado sobre como muito abaixo da média, pois ele pode ir. Essa barreira iminente em 0 dá um limite à variabilidade e leva à assimetria.
[Essa forma de intuição não nos diz por que ela assume essa forma funcional exata, mas deixa claro por que a variação deve ser pequena perto das extremidades e ficar menor quanto mais próxima das extremidades que você for.]
fonte
As informações de Fisher são a variação da função de pontuação. E está relacionado à entropia. Para um julgamento de Bernoulli, estamos recebendo um pouco para cada julgamento. Portanto, essas informações da Fisher têm propriedades semelhantes às da entropia de Shannon, como seria de esperar. Em particular, a entropia tem um máximo em 1/2 e a informação tem um mínimo em 1/2.
fonte