Recentemente, eu estava lendo um artigo que incorporava a aleatoriedade em seus intervalos de confiança e credibilidade, e me perguntava se isso é padrão (e, se sim, por que é uma coisa razoável a se fazer). Para definir a notação, assuma que nossos dados são e estamos interessados em criar intervalos para um parâmetro . Estou acostumado a intervalos de confiança / credibilidade sendo construídos através da construção de uma função:θ ∈ Θ
e deixando nosso intervalo .
Isso é aleatório no sentido de que depende dos dados, mas, dependendo dos dados, é apenas um intervalo. Este artigo define
e também uma coleção de variáveis aleatórias uniformes iid em . Ele define o intervalo associado como I = \ {\ theta \ in \ Theta \,: \, f_ {x} (\ theta) \ geq U _ {\ theta} \} . Observe que isso depende muito da aleatoriedade auxiliar, além do que vier dos dados. [ 0 , 1 ] I = { θ ∈ Θ
Estou muito curioso para saber por que alguém faria isso. Eu acho que 'relaxar' a noção de um intervalo de funções como para funções como faz algum sentido; é algum tipo de intervalo de confiança ponderado. Não conheço nenhuma referência para isso (e gostaria de receber dicas), mas parece bastante natural. No entanto, não consigo pensar em nenhum motivo para adicionar aleatoriedade auxiliar.
Qualquer indicação para a literatura / razões para fazer isso seria apreciada!
Respostas:
Procedimentos aleatórios são usados algumas vezes na teoria porque simplificam a teoria. Em problemas estatísticos típicos, isso não faz sentido na prática, enquanto que nas configurações da teoria dos jogos pode fazer sentido.
A única razão pela qual posso usá-lo na prática é se, de alguma forma, simplifica os cálculos.
Teoricamente, pode-se argumentar que não deve ser usado, a partir do princípio da suficiência : as conclusões estatísticas devem basear-se apenas em resumos suficientes dos dados, e a randomização introduz dependência de um aleatório estranho que não faz parte de um resumo suficiente dos dados.U
Para responder aos comentários de whuber abaixo, citados aqui: "Por que os procedimentos aleatórios" não fazem sentido na prática "? Como outros observaram, os pesquisadores estão perfeitamente dispostos a usar a randomização na construção de seus dados experimentais, como atribuição aleatória de tratamento e controle , então, o que há de tão diferente (e impraticável ou censurável) sobre o uso da randomização na análise subsequente dos dados? "
Bem, a randomização do experimento para obter os dados é feita com um objetivo, principalmente para quebrar as cadeias de causalidade. Se e quando isso for efetivo é outra discussão. Qual poderia ser o propósito de usar a randomização como parte da análise? A única razão que eu já vi é que ela torna a teoria matemática mais completa! Tudo bem, desde que seja. Nos contextos da teoria dos jogos, quando há um adversário real, randomize minha ajuda para confundi-lo. Em contextos reais de decisão (vender ou não vender?), Uma decisão deve ser tomada e, se não houver evidência nos dados, talvez alguém possa jogar uma moeda. Mas em um contexto científico, onde a questão é o que podemos aprendera partir dos dados, a randomização parece deslocada. Não vejo nenhuma vantagem real disso! Se você discorda, você tem algum argumento que poderia convencer um biólogo ou químico? (E aqui não penso em simulação como parte do bootstrap ou MCMC.)
fonte
A ideia se refere ao teste, mas, tendo em vista a dualidade dos intervalos de teste e confiança, a mesma lógica se aplica aos ICs.
Basicamente, testes randomizados garantem que um determinado tamanho de um teste possa ser obtido para experimentos com valores discretos também.
pbinom(2,10,.5)
fonte