Minha pergunta sai desse comentário em um post de Andrew Gelman no blog em que ele defende o uso de intervalos de confiança de 50% em vez de intervalos de confiança de 95%, embora não com base em que eles sejam estimados com mais robustez:
Eu prefiro intervalos de 50% a 95% por 3 razões:
Estabilidade computacional,
Avaliação mais intuitiva (metade dos intervalos de 50% deve conter o valor verdadeiro),
Uma sensação de que nas aplicações é melhor ter uma noção de onde estarão os parâmetros e valores previstos, não tentar uma quase certeza irrealista.
A ideia do comentarista parece ser que os problemas com as suposições subjacentes à construção do intervalo de confiança terão mais impacto se for um IC de 95% do que se for um IC de 50%. No entanto, ele realmente não explica o porquê.
[...] à medida que você vai a intervalos maiores, você se torna mais sensível em geral aos detalhes ou suposições do seu modelo. Por exemplo, você nunca acreditaria ter identificado corretamente o intervalo de 99,9995%. Ou pelo menos essa é a minha intuição. Se estiver certo, argumenta que 50% deve ser melhor estimado do que 95%. Ou talvez uma estimativa “mais robusta”, já que é menos sensível às suposições sobre o ruído, talvez?
É verdade? Porque porque não?
fonte
Respostas:
Esta resposta analisa o significado da cotação e oferece os resultados de um estudo de simulação para ilustrá-la e ajudar a entender o que ela pode estar tentando dizer. O estudo pode ser facilmente estendido por qualquer pessoa (com
R
habilidades rudimentares ) para explorar outros procedimentos de intervalo de confiança e outros modelos.Duas questões interessantes surgiram neste trabalho. Uma delas diz respeito a como avaliar a precisão de um procedimento de intervalo de confiança. A impressão de robustez depende disso. Eu exibo duas medidas diferentes de precisão para que você possa compará-las.
A outra questão é que, embora uma confiança procedimento de intervalo de com baixa confiança possa ser robusto, os limites de confiança correspondentes podem não ser robustos. Intervalos tendem a funcionar bem porque os erros que cometem em uma extremidade frequentemente contrabalançam os erros que cometem na outra. Por uma questão prática, você pode ter certeza de que cerca de metade dos seus intervalos de confiança de estão cobrindo seus parâmetros, mas o parâmetro real pode estar consistentemente perto de um final específico de cada intervalo, dependendo de como a realidade se afasta das suposições do seu modelo.50 %
Robusto tem um significado padrão nas estatísticas:
(Hoaglin, Mosteller e Tukey, Entendendo a análise de dados robusta e exploratória . J. Wiley (1983), p. 2.)
Isso é consistente com a cotação da pergunta. Para entender a cotação, ainda precisamos conhecer o objetivo pretendido de um intervalo de confiança. Para esse fim, vamos revisar o que Gelman escreveu.
Como obter uma noção dos valores previstos não é o objetivo dos intervalos de confiança (ICs), vou me concentrar em obter uma sensação de valores parâmetros , que é o que os ICs fazem. Vamos chamar esses valores de "alvo". De onde, por definição, um IC deve cobrir seu objetivo com uma probabilidade especificada (seu nível de confiança). Atingir as taxas de cobertura pretendidas é o critério mínimo para avaliar a qualidade de qualquer procedimento de IC. (Além disso, podemos estar interessados em larguras típicas de IC. Para manter a postagem com um comprimento razoável, ignorarei esse problema.)
Essas considerações nos convidam a estudar o quanto um cálculo do intervalo de confiança pode nos induzir em erro quanto ao valor do parâmetro alvo. A cotação pode ser lida como sugerindo que os ICs de menor confiança podem manter sua cobertura mesmo quando os dados são gerados por um processo diferente do modelo. Isso é algo que podemos testar. O procedimento é:
Adote um modelo de probabilidade que inclua pelo menos um parâmetro. O clássico é a amostragem de uma distribuição Normal de média e variância desconhecidas.
Selecione um procedimento de IC para um ou mais dos parâmetros do modelo. Um excelente constrói o IC a partir da média da amostra e do desvio padrão da amostra, multiplicando o último por um fator fornecido pela distribuição t de Student.
Aplique esse procedimento a vários modelos diferentes - não se afastando muito do adotado - para avaliar sua cobertura em vários níveis de confiança.
captura bem a diferença. Quando é zero, a cobertura é exatamente o valor pretendido. Quando negativo, a cobertura é muito baixa - o que significa que o IC é otimista demais e subestima a incerteza.
A questão, então, é como essas taxas de erro variam com o nível de confiança, à medida que o modelo subjacente é perturbado? Podemos responder plotando os resultados da simulação. Esses gráficos quantificam quão "irrealista" a "quase certeza" de um IC pode ser nesse aplicativo arquetípico.
Este é o
R
código que produziu os gráficos. É prontamente modificado para estudar outras distribuições, outras faixas de confiança e outros procedimentos de IC.fonte
Essa é uma ideia interessante, e posso ver como é intuitivamente convincente, mas acho que é vaga demais para ser verdadeira ou falsa. Aqui estão algumas perguntas que eu gostaria que o comentarista esclarecesse:
Com respostas diferentes para essas perguntas, acho que poderíamos tornar a afirmação claramente verdadeira ou falsa.
Meu palpite é que o comentarista está se referindo a:
Se é isso que o comentarista tem em mente, dependendo de como as caudas da distribuição se equilibram, a afirmação pode ser verdadeira.
fonte