Eu li as respostas existentes no CrossValidated (além de outros locais on-line) e não consigo encontrar o que estou procurando, mas, por favor, aponte-me para as fontes existentes, caso as tenha perdido.
Digamos que eu tenho um conjunto de dados de N = 1000 registros, cada um dos quais pode ser amostrado manualmente e rotulado como 'Válido' ou 'Inválido' (ou Verdadeiro / Falso, Certo / Errado, etc.).
Desejo atingir um determinado nível de confiança de que todos os registros no conjunto de dados são válidos. Como exemplo de registros, se eu encontrar um único inválido, voltarei a alterar a forma como o conjunto de dados é criado para corrigir isso e problemas semelhantes.
Portanto, depois de algumas iterações para localizar Invalids, corrigir e recriar o conjunto de dados, faço algumas amostragens que incluem apenas registros válidos. Se eu quero ter (digamos) 99% ou 95% de certeza de que todos os registros são válidos, qual o tamanho da minha amostra? (Idealmente em função de N.)
Tentei brincar com os testes hipergeométricos ( http://en.wikipedia.org/wiki/Hypergeometric_distribution#Hypergeometric_test ) - nesse contexto, quero saber o que k deve ser, mas não tenho um valor fixo de K Em vez disso, quero escolher k de modo que K seja provavelmente igual a N - mas definir K = N obviamente resulta em uma probabilidade de 1! Também estou me perguntando se preciso usar uma abordagem bayesiana, mas não entendo as estatísticas bayesianas o suficiente.
fonte
Respostas:
=(1
Portanto, o tamanho mínimo da amostra necessário para poder rejeitar a hipótese nula em um nível de significância (ou equivalente para obter um intervalo de confiança unilateral de ) é simplesmente p α = 1 - p K = 0n∗ p α = 1 - p K= 0
n ∗ = ⌈ α N ⌉
Com e , . Se isso parecer muito, considere que todos os mil registros válidos são um critério estrito; se você considerar relaxar, a mesma abordagem pode ser usada para testar, digamos .α = 0,95 n ∗ = 950 K > 9N= 1000 α = 0,95 n∗= 950 K> 9
fonte