Comparando 0/10 a 20/20

10

Ao discutir as taxas de realização de tarefas, existe uma maneira de mostrar que 0 em 20 tentativas é "pior" que 0 em 10 tentativas?

vinne
fonte
11
Você pode tentar usar en.wikipedia.org/wiki/Additive_smoothing mas será bastante mãos acenando de prova sólida
abukaj
Como você sabe que é pior? Por exemplo, se apenas 10 tentativas fossem possíveis, você não sabe qual seria a pontuação com mais tentativas.
Tim
4
Talvez um intervalo de confiança para a proporção estimada?
Mdewey
5
Parece-me uma pergunta razoável. Baseia-se em uma intuição perfeitamente normal que pode ser discutida, e existem maneiras estatísticas (por exemplo, bayesiana) de abordar a questão. Estou votando para deixar em aberto.
gung - Restabelece Monica
11
Eu concordo com @gung. Essa é uma boa pergunta.
Alexis #

Respostas:

3

Suponha que sabemos a probabilidade de sucesso em uma tentativa. Nesse caso, calculamos a probabilidade de 0 em 10 e 0 em 20 casos.

No entanto, neste caso, fazemos o contrário. Não sabemos a probabilidade, temos os dados e tentamos estimar a probabilidade.

Quanto mais casos tivermos, mais seguros podemos ter em relação aos resultados. Se eu jogar uma moeda e ela for cara, você não terá certeza de que é dupla. Se eu jogá-lo 1.000 vezes e será tudo cabeça, é improvável que esteja equilibrado.

Existem métodos que foram projetados para considerar o número de trilhas ao fornecer as estimativas. Um deles é a suavização aditiva que o @abukaj comenta acima. Na suavização aditiva, adicionamos pseudo amostras extras em consideração. No nosso caso, ao invés, na trilha que vimos, adicionamos mais duas - uma bem-sucedida e outra falhada.

  • No primeiro caso, a probabilidade suavizada será = ~ 8,3%1+010+1+1112
  • No segundo caso, obteremos = ~ 4,5%1+020+1+1122

Observe que a suavização aditiva é apenas um método de estimativa. Você obterá resultados diferentes com métodos diferentes. Mesmo com a suavização aditiva em si, você obteria resultados diferentes se adicionasse 4 pseudo amostras.

Outro método é usar o intervalo de confiança, como sugerido por @mdewey. Quanto mais amostras tivermos, menor será o intervalo de confiança. O tamanho do intervalo de confiança é proporcional à raiz quadrada das amostras - . Portanto, dobrar o número de amostras levará a um intervalo de confiança mais curto.1n2

A média em ambos os casos é 0. É necessário um nível de confiança de 90% (z = 1.645)

  • No primeiro caso, obteremos 0 + ~ 52%1.64510
  • No segundo caso, obteremos 0 + ~ 36%1.64520

Em caso de falta de dados, há incerteza. As suposições feitas e os dados externos que você usará mudarão o que você receberá.

DaL
fonte
11
Muito obrigado Dan Levin. Sua resposta foi clara o suficiente para ser seguida por um não matemático e, no entanto, robusta o suficiente para eu aceitar intuitivamente sua explicação. Obrigado a todos os comentaristas por sua contribuição.
586
1

Estendendo a idéia de chamar intervalos de confiança, existe o conceito de um intervalo binomial exato.

A distribuição binomial é a do número total de sucessos em testes independentes que terminam em 0 (falha) ou 1 (sucesso). A probabilidade de obter 1 (sucesso) é tradicionalmente denominada , e seu complemento é . Então o resultado da probabilidade padrão é que a probabilidade de exatamente sucessos em ensaios éq = 1 - p k npq=1pkn

pn,k=(nk)pkqnk=n!k!(nk)!pkqnk

O conceito de intervalo de confiança é vincular um conjunto de valores possíveis dos parâmetros do modelo (aqui, probabilidades de sucesso ), para que possamos fazer declarações probabilísticas (bem, freqüentistas ) sobre se o verdadeiro valor do parâmetro está dentro desse intervalo (ou seja, , que se repetirmos o experimento probabilístico de 10 ou 20 tentativas e construirmos o intervalo de confiança de uma maneira especificada, observaremos que o valor real do parâmetro está dentro do intervalo 95% das vezes).p

Nesse caso, podemos resolver nessa fórmula: p

pn,0=(1p)n

Portanto, se quiséssemos um intervalo unilateral de 95%, para resolver a probabilidade de a contagem zero observada ser no máximo 5%. Para , a resposta é (ou seja, no extremo, se a probabilidade de sucesso em cada tentativa for 13,9%, a probabilidade de observar zero sucesso é de 5%). Para , a resposta é . Portanto, a partir de uma amostra de , aprendemos mais do que da amostra de , no sentido de que podemos `` excluir '' o intervalo que a amostra de ainda deixa o mais plausível.pn,0=5%n=20[0%,13.9%]n=10[0%,25.9%]n=20n=10[13.9%,25.9%]n=10

StasK
fonte
0

Uma abordagem bayesiana

A função de verossimilhança é Bernoulli e a distribuição Beta é um conjugado anterior para a distribuição Bernoulli, portanto, o posterior segue a distribuição Beta. Além disso, o posterior é parametrizado por:

α^=α+i=1nXiβ^=β+ni=1nXi

Consequentemente:

E[pX1,,Xn]=α^α^+β^=α+i=1nXiα+β+n

Portanto, se você observar 10 falhas, sua expectativa de é e, se você observar 20 falhas, sua expectativa de é . Quanto mais falhas você vê, menor sua expectativa de .pαα+β+10pαα+β+20p

Esse argumento é razoável? Depende de como você se sente em relação às estatísticas bayesianas, se deseja modelar a incerteza sobre algum parâmetro usando a mecânica da probabilidade. E isso depende de quão razoável é sua escolha de um prior.p

Matthew Gunn
fonte