Intervalos de confiança versus tamanho da amostra?

9

Sou totalmente novo nas estatísticas e no campo dos intervalos de confiança. Portanto, isso pode ser muito trivial ou até parecer estúpido. Eu apreciaria se você pudesse me ajudar a entender ou me indicar alguma literatura / texto / blog que explique isso melhor.

Vejo em vários sites de notícias como CNN, Fox News, Politico etc. sobre suas pesquisas sobre a corrida presidencial dos EUA em 2012. Cada agência realiza algumas pesquisas e relata algumas estatísticas do formulário:

CNN: A popularidade de Obama é de X% com margem de erro de +/- x1%. Tamanho da amostra 600. FOX: A popularidade de Obama é Y% com margem de erro de +/- y1%. Tamanho da amostra 800. XYZ: A popularidade de Obama é de Z% com margem de erro +/- z1%. Tamanho da amostra 300.

Aqui estão minhas dúvidas:

  1. Como decido em quem confiar? Deveria ser baseado no intervalo de confiança ou devo assumir que, como a Fox tem um tamanho de amostra maior, sua estimativa é mais confiável? Existe uma relação implícita entre os itnervals de confiança e o tamanho da amostra, de modo que a especificação de um evita a necessidade de especificar o outro?

  2. Posso determinar o desvio padrão dos intervalos de confiança? Em caso afirmativo, é válido sempre ou válido apenas para determinadas distribuições (como gaussiana)?

  3. Existe uma maneira de "mesclar" ou "combinar" as três estimativas acima e obter minha própria estimativa junto com os intervalos de confiança? Que tamanho de amostra devo reivindicar nesse caso?

Mencionei a CNN / Fox apenas para explicar melhor o meu exemplo. Não tenho intenção de iniciar um debate entre democratas e republicanos aqui.

Por favor, ajude-me a entender os problemas que levantei.

Nik
fonte

Respostas:

4

Além da grande resposta de Pedro, aqui estão algumas respostas para suas perguntas específicas:

  1. Em quem confiar dependerá também de quem está realizando a pesquisa e que esforço eles envidam para obter uma pesquisa de boa qualidade. Um tamanho de amostra maior não é melhor se a amostra não for representativa, fazendo uma grande enquete, mas apenas em um estado sem oscilação não daria resultados muito bons.

    Existe uma relação entre o tamanho da amostra e a largura do intervalo de confiança, mas outras coisas também influenciam a largura, como quão perto a porcentagem é de 0, 1 ou 0,5; que ajustes de viés foram usados, como a amostra foi coletada (agrupamento, estratificação etc.). A regra geral é que a largura do intervalo de confiança será proporcional a , portanto, para reduzir pela metade o intervalo, você precisa de quatro vezes o tamanho da amostra.1 1n

  2. Se você souber o suficiente sobre como a amostra foi coletada e qual fórmula foi usada para calcular o intervalo, poderá resolver o desvio padrão (você também precisa saber o nível de confiança que está sendo usado, geralmente 0,05). Mas a fórmula é diferente para amostras estratificadas vs. cluster. Além disso, a maioria das pesquisas analisa porcentagens, portanto, utilizaria a distribuição binomial.

  3. Existem maneiras de combinar as informações, mas você geralmente precisa saber algo sobre como as amostras foram coletadas ou estar disposto a fazer alguma forma de suposições sobre como os intervalos foram construídos. Uma abordagem bayesiana é uma maneira.

Greg Snow
fonte
11
+1. Mas as perspectivas para o # 3 são realmente tão sombrias ou difíceis? Se eu tenho uma coleção de estimativas independentes, cada uma com sua própria margem de erro, por que não posso (pelo menos aproximadamente) combiná-las da maneira usual (como uma média ponderada, ponderada inversamente por MoEs ao quadrado) e combinar seus erros padrão como bem (usando fórmulas de variância)? Não seria perfeito, mas deveria ser melhor do que escolher uma pesquisa na qual confiar, certo?
whuber
Obrigado Greg! Aprecio muito suas respostas. Você mencionou na sua resposta à pergunta 3 que "uma abordagem bayesiana é uma maneira". Você poderia me indicar alguma literatura que dê mais informações sobre isso?
Nik
@ whuber: Obrigado pelo seu comentário. Era o que eu estava pensando em fazer. Você acha que se justifica combinar essas estimativas dessa maneira? Pode não ser completamente, mas em grande medida?
Nik
11
@whuber, não pretendi pintá-lo como sombrio, apenas para garantir que o pôster estivesse ciente e pudesse viver com as premissas necessárias.
Greg Neve
@ Nik, existem muitos tutoriais na web para estatísticas bayesianas. Uma abordagem simples (que assumiria que todas as amostras eram amostras aleatórias simples ou que o design da pesquisa era tal que a suposição da SRS não está muito distante) seria começar com um beta anterior e, em seguida, usar cada pesquisa com uma probabilidade binomial de atualizar e obter um novo posterior. Uma coisa boa sobre a abordagem de Bayes é que você pode desconsiderar o efeito dos estudos anteriores se não quiser que eles tenham tanta influência quanto a pesquisa mais recente.
Greg Neve
4

Este é um tópico enorme, mas basicamente existem dois problemas:

1) Precisão - isso é determinado pelo tamanho da amostra. Amostras maiores fornecem estimativas mais precisas com erro padrão mais baixo e intervalos de confiança mais apertados

2) Viés - que, em estatística, não tem necessariamente as conotações negativas que possui em outros lugares. Nas pesquisas, eles tentam obter uma amostra aleatória de XXXX (às vezes prováveis ​​eleitores, às vezes eleitores registrados). Mas eles não. Algumas pesquisas usam apenas linhas terrestres. Diferentes grupos de pessoas têm mais ou menos probabilidade de responder. Grupos diferentes têm mais ou menos probabilidade de simplesmente desligar.

Assim, todos os pesquisadores avaliam suas respostas. Ou seja, eles tentam ajustar seus resultados para coincidir com fatos conhecidos sobre os eleitores. Mas todos fazem isso de maneira um pouco diferente. Portanto, mesmo com os mesmos dados de entrada de pesquisa, eles fornecerão números diferentes.

Em quem confiar? Bem, se você olhar para o trabalho de Nate Silver no 538, ele tem classificações de quão precisos os pesquisadores foram nas eleições anteriores. Mas isso não significa que eles serão igualmente precisos agora.

Peter Flom - Restabelece Monica
fonte
Obrigado Peter. Portanto, uma estimativa com menor margem de erro é mais "precisa". Existe uma maneira de saber também o quão tendencioso é a partir de apenas X% +/- x1% da margem de erro? Eu acho que isso não é possível, a menos que você conheça as preferências de cada amostra, certo?
Nik
Sim está certo. Certamente, alguns pesquisadores têm vieses conhecidos (em uma direção ou outra). Pesquisas internas (realizadas por uma parte ou outra) geralmente são tendenciosas. Uma maneira de fazer isso é executando várias pesquisas e liberando apenas aquelas que são favoráveis. Depois, há toda a questão das "pesquisas de opinião", nas quais as perguntas sobre um candidato são precedidas por perguntas negativas sobre ele.
Peter Flom - Restabelece Monica
1

Isso ocorre na área de amostragem da pesquisa. Em princípio, os métodos funcionam porque a randomização é usada. Aqui estão as coisas que podem diferir nas pesquisas com base em decisões subjetivas.

  1. Quadro de amostragem. De que grupo de eleitores devo retirar minha amostra?

  2. Como lidar com a volatilidade do eleitor indeciso que pode mudar de opinião sobre Obama x Romney com base na pesquisa de ontem ou nas próximas semanas?

  3. Peter tocou no viés. A pesquisa de resumo literário de 1936 foi um desastre. Ele escolheu o candidato republicano em vez de FDR porque o quadro de amostragem foi baseado na seleção aleatória de números de telefone. Em 1936, apenas a classe média alta e os ricos possuíam telefones. Esse grupo foi dominado por republicanos que tendem a votar no candidato republicano. Roosevelt venceu por um deslizamento de terra, recebendo votos dos pobres e da classe média, que tendiam a ser muito um grupo de democratas! Isso ilustra o viés devido à escolha sutilmente ruim de um quadro de amostragem.

  4. A amostragem da pesquisa trata de populações finitas. O tamanho da população é N. Digamos que uma amostra aleatória simples seja retirada dessa população e tenha o tamanho n. Por simplicidade, suponha que apenas Obama e Romney estejam concorrendo. A proporção de votos que Obama obteria nesse quadro de amostragem é uma média de variáveis ​​binárias (digamos 1 se o entrevistado escolher Obama e 0 para Romney). A variação da média da amostra para essa variável é [p (1-p) / n] [Nn] / N, em que p é a verdadeira proportina da população que escolheria Obama. [Nn] / N é a correção finita da população. na maioria das pesquisas, N é muito maior que N e o correto pode ser ignorado. Olhando p (1-p) / n, vemos que a variação diminui com n. Portanto, se n for grande, o intervalo de confiança em um determinado nível de confiança ficará pequeno.

Outros pesquisadores de amostragem e estatísticos do US Census Bureau têm à disposição essas ferramentas estatísticas e utilizam métodos mais complexos e precisos (amostra aleatória em cluster e amostragem aleatória estratificada para mencionar alguns métodos).

Quando suas suposições de modelagem são válidas, os métodos funcionam notavelmente bem. A pesquisa de saída é um excelente exemplo. No dia da eleição, você verá as redes projetarem com precisão o vencedor em quase todos os estados, muito antes de uma contagem quase final. Isso ocorre porque a variabilidade do dia de pré-seleção se foi. Eles sabem historicamente como as pessoas tendiam a votar e podem determinar os distritos selecionados de maneira a evitar preconceitos. As redes às vezes diferem. Isso pode ser devido a uma competição para escolher o vencedor à frente da mentalidade dos outros. Em casos raros, também pode ocorrer porque a votação é extremamente próxima (por exemplo, eleição presidencial de 2000 na Flórida).

Espero que isso lhe dê uma imagem mais clara do que acontece. Não vemos mais erros grosseiros como "Dewey derrota Truman" em 1948 ou o fiasco da Literary Digest de 1936. Mas a estatística não é perfeita e os estatísticos nunca podem dizer que estão certos.

Michael R. Chernick
fonte
Obrigado pela explicação detalhada. Isso realmente ajudou!
Nik #
Já não vemos erros grosseiros? Então, Clinton ganhou em 2016, ela ganhou? Pego suas incógnitas conhecidas e crio um cisne negro para você . Como meu pai costumava dizer: "É o que você não sabe que mata você".
22417 Carl
11
Minha resposta não teve nada a ver com Clinton e as eleições de 2016, que tiveram muitos problemas estranhos. (1) intervenção russa, (2) Clinton ganhou o voto popular e (3) alguns eleitores de Trump foram reticentes em admitir que votariam em Trump. Talvez eu deva acrescentar que as pesquisas podem estar erradas quando a participação de eleitores não é o que era esperado.
Michael R. Chernick