Por que alguém usaria confiança 'aleatória' ou intervalos credíveis?

16

Recentemente, eu estava lendo um artigo que incorporava a aleatoriedade em seus intervalos de confiança e credibilidade, e me perguntava se isso é padrão (e, se sim, por que é uma coisa razoável a se fazer). Para definir a notação, assuma que nossos dados são e estamos interessados ​​em criar intervalos para um parâmetro . Estou acostumado a intervalos de confiança / credibilidade sendo construídos através da construção de uma função:θ ΘxXθΘ

fx:Θ{0,1}

e deixando nosso intervalo .I={θΘ:fx(θ)=1}

Isso é aleatório no sentido de que depende dos dados, mas, dependendo dos dados, é apenas um intervalo. Este artigo define

gx:Θ[0,1]

e também uma coleção de variáveis ​​aleatórias uniformes iid em . Ele define o intervalo associado como I = \ {\ theta \ in \ Theta \,: \, f_ {x} (\ theta) \ geq U _ {\ theta} \} . Observe que isso depende muito da aleatoriedade auxiliar, além do que vier dos dados. [ 0 , 1 ] I = { θ Θ{Uθ}θΘ[0,1]I={θΘ:fx(θ)Uθ}

Estou muito curioso para saber por que alguém faria isso. Eu acho que 'relaxar' ​​a noção de um intervalo de funções como fx para funções como gx faz algum sentido; é algum tipo de intervalo de confiança ponderado. Não conheço nenhuma referência para isso (e gostaria de receber dicas), mas parece bastante natural. No entanto, não consigo pensar em nenhum motivo para adicionar aleatoriedade auxiliar.

Qualquer indicação para a literatura / razões para fazer isso seria apreciada!

QQQ
fonte
5
(+1) Isso é chamado de procedimento aleatório. Eles são uma parte padrão da estimativa estatística e da estrutura de teste, para que você possa contar com praticamente qualquer livro rigoroso para fornecer explicações. Motivação adicional para seu uso pode ser encontrada na literatura da teoria dos jogos.
whuber
Obrigado pela resposta. Depois de ler este comentário, percebi que, por exemplo, o bootstrapping se encaixa nessa estrutura, mas nessa situação a razão da randomização é clara (você não tem acesso a f, apenas g). No meu caso, os autores calculam explicitamente e ENTÃO olham para . Embora eu tenha muitos livros de estatísticas, não vejo isso em nenhum lugar ... você tem um texto sugerido? fxgx
QQQ
3
Na verdade, a inicialização não é um procedimento aleatório. É um procedimento determinado , cujo cálculo aproximado é realizado por meio de amostragem aleatória.
whuber

Respostas:

4

Procedimentos aleatórios são usados ​​algumas vezes na teoria porque simplificam a teoria. Em problemas estatísticos típicos, isso não faz sentido na prática, enquanto que nas configurações da teoria dos jogos pode fazer sentido.

A única razão pela qual posso usá-lo na prática é se, de alguma forma, simplifica os cálculos.

Teoricamente, pode-se argumentar que não deve ser usado, a partir do princípio da suficiência : as conclusões estatísticas devem basear-se apenas em resumos suficientes dos dados, e a randomização introduz dependência de um aleatório estranho que não faz parte de um resumo suficiente dos dados.U

UPDATE  

Para responder aos comentários de whuber abaixo, citados aqui: "Por que os procedimentos aleatórios" não fazem sentido na prática "? Como outros observaram, os pesquisadores estão perfeitamente dispostos a usar a randomização na construção de seus dados experimentais, como atribuição aleatória de tratamento e controle , então, o que há de tão diferente (e impraticável ou censurável) sobre o uso da randomização na análise subsequente dos dados? "

Bem, a randomização do experimento para obter os dados é feita com um objetivo, principalmente para quebrar as cadeias de causalidade. Se e quando isso for efetivo é outra discussão. Qual poderia ser o propósito de usar a randomização como parte da análise? A única razão que eu já vi é que ela torna a teoria matemática mais completa! Tudo bem, desde que seja. Nos contextos da teoria dos jogos, quando há um adversário real, randomize minha ajuda para confundi-lo. Em contextos reais de decisão (vender ou não vender?), Uma decisão deve ser tomada e, se não houver evidência nos dados, talvez alguém possa jogar uma moeda. Mas em um contexto científico, onde a questão é o que podemos aprendera partir dos dados, a randomização parece deslocada. Não vejo nenhuma vantagem real disso! Se você discorda, você tem algum argumento que poderia convencer um biólogo ou químico? (E aqui não penso em simulação como parte do bootstrap ou MCMC.)

kjetil b halvorsen
fonte
1
Por que procedimentos aleatórios "não fazem sentido na prática"? Como outros observaram, os experimentadores estão perfeitamente dispostos a usar a randomização na construção de seus dados experimentais, como atribuição aleatória de tratamento e controle, então o que há de tão diferente (e impraticável ou questionável) sobre o uso da randomização na análise dos dados que se segue ?
whuber
1
@kjetil Acho que você pode não ter concluído sua declaração sobre o princípio da suficiência, parece ter sido cortado no meio da frase ("conclusões estatísticas devem ...").
Silverfish 01/01
1
U
1
@ whuber: É um argumento claro e de princípios de que a randomização na obtenção dos dados pode ser vantajosa. (Quebra cadeias causais). Qual é esse argumento de princípios para usar a randomização como parte da análise?
Kjetil b halvorsen
1
Kjetil: Permite atingir a função de risco pretendida, em vez de aceitar uma função de risco (geralmente na forma de tamanho e potência nominais) que não é o que você queria. Além disso, se um procedimento é "teoricamente" útil, certamente não pode haver objeção ao seu uso na prática, além da impraticabilidade (o que geralmente não é o caso com procedimentos aleatórios). Portanto, sua pergunta deve ser invertida: a responsabilidade é sua de demonstrar que há algo errado com o uso de procedimentos aleatórios. Como você consegue isso sem se contradizer?
whuber
3

A ideia se refere ao teste, mas, tendo em vista a dualidade dos intervalos de teste e confiança, a mesma lógica se aplica aos ICs.

Basicamente, testes randomizados garantem que um determinado tamanho de um teste possa ser obtido para experimentos com valores discretos também.

α=0.05pH0:p=0.5H1:p<0.5n=10

H0k=2ppbinom(2,10,.5)k=1H0

k=2

Christoph Hanck
fonte
α
Bem, acho que isso nos traz de volta à história da estatística, quando RA Fisher decidiu arbitrariamente trabalhar com um nível de significância de 5% para decidir se alguma evidência inicial merece mais estudos. Como sabemos, 5% se transformou em uma espécie de padrão-ouro em muitos campos, apesar da falta de um bom fundamento teórico da decisão.
Christoph Hanck