O estimador de Bayes é imune ao viés de seleção

11

Os estimadores de Bayes são imunes ao viés de seleção?

A maioria dos trabalhos que discutem estimativas em alta dimensão, por exemplo, dados de sequências genômicas completas, muitas vezes levanta a questão do viés de seleção. O viés de seleção decorre do fato de que, embora tenhamos milhares de preditores em potencial, poucos serão selecionados e a inferência é feita nos poucos selecionados. Portanto, o processo segue duas etapas: (1) selecione um subconjunto de preditores (2) realize inferência nos conjuntos selecionados, por exemplo, estimativa de razão de chances. Dawid, em seu artigo sobre paradoxo de 1994, focou em estimadores imparciais e estimadores de Bayes. Ele simplifica o problema para selecionar o maior efeito, que pode ser um efeito de tratamento. Então ele diz, estimadores imparciais são afetados pelo viés de seleção. Ele usou o exemplo: assuma seguida, cadaZ i

ZiN(δi,1),i=1,,N
Zi é imparcial para . Seja , o estimador no entanto, é tendencioso ( positivamente) para \ max \ {\ delta_1, \ delta_2, \ ldots, \ delta_N \} . Essa afirmação pode ser facilmente comprovada com a desigualdade de Jensen. Portanto, se soubéssemos i _ {\ max} , o índice do maior \ delta_i , usaremos Z_ {i _ {\ max}} como seu estimador, que é imparcial. Mas, como não sabemos disso, usamos \ gamma_1 (\ mathbf {Z}), que fica tendencioso (positivamente).δiZ=(Z1,Z2,,ZN)Tmax { δ 1 , δ 2 , , δ N } i max δ i Z i max γ 1 ( Z )
γ1(Z)=max{Z1,Z2,,ZN}
max{δ1,δ2,,δN}imaxδiZimaxγ1(Z)

insira a descrição da imagem aqui

Mas a afirmação preocupante que Dawid, Efron e outros autores fazem é que os estimadores de Bayes são imunes ao viés de seleção. Se agora vou colocar anterior em , digamos , O estimador Bayes de é dado por onde , com o gaussiano padrão.δ ig ( . ) δ i E { δ iZ i } = z i + dδiδig(.)δim(zi)=φ(zi-δi)g(δi)dδiφ(.)

E{δiZi}=zi+ddzim(zi)
m(zi)=φ(ziδi)g(δi)dδiφ(.)

Se definirmos o novo estimador de como o você selecionar para estimar com , será o mesmo se a seleção for baseada em . Isso porque é monótono em . Também sabemos que reduz para zero com o termo γ 2 ( Z ) = max { E { δ 1Z 1 } , E { δ 2Z 2 } , , E { δ NZ N } } , i δ i max γ 1 ( Z ) i γ 2 ( Z ) γ 2 ( Z )δimax

γ2(Z)=max{E{δ1Z1},E{δ2Z2},,E{δNZN}},
iδimaxγ1(Z)iγ2(Z)γ2(Z) E { δ iZ i } Z i dZiE{δiZi}ZiZiddzim(zi)o que reduz parte do viés positivo em . Mas como concluímos que os estimadores de Bayes são imunes ao viés de seleção. Eu realmente não entendo.Zi
Chamberlain Foncha
fonte
1
Como você está indicando uma reivindicação em uma peça de literatura, pode fornecer uma situação completa e uma referência de página, para que possamos ler o contexto completo dessa reivindicação.
Ben - Reinstala Monica
Definir um estimador como o máximo de estimadores de Bayes ainda é um estimador de Bayes?
Xi'an
Exemplo 1 no artigo.
Chamberlain Foncha 14/03/19

Respostas:

4

Como descrito acima, a questão se baseia em inferir o índice e o valor (i⁰, μ⁰) da maior média de uma amostra de RVs normais. O que acho surpreendente na apresentação de Dawid é que a análise bayesiana não soa muito bayesiana. Se for fornecida toda a amostra, uma abordagem bayesiana deve produzir uma distribuição posterior em (i⁰, μ⁰), em vez de seguir as etapas de estimativa, desde a estimativa de i⁰ até a estimativa da média associada. E, se necessário, os estimadores devem vir da definição de uma função de perda específica. Quando, em vez disso, dado o maior ponto da amostra e somente esse ponto, sua distribuição muda, fico bastante confuso com a afirmação de que nenhum ajuste é necessário.

A modelagem anterior também é bastante surpreendente, pois os anteriores sobre os meios devem ser conjuntos e não um produto de normais independentes, uma vez que esses meios são comparados e, portanto, comparáveis. Por exemplo, um prior hierárquico parece mais apropriado, com localização e escala a serem estimadas a partir de todos os dados. Criando uma conexão entre os meios ... Uma objeção relevante ao uso de antecedentes impróprios independentes é que a média máxima μ⁰ então não possui uma medida bem definida. No entanto, não creio que uma crítica de alguns priores a outros seja um ataque relevante a esse "paradoxo".

Xi'an
fonte
1
Parece-me que toda a proteção necessária deve ser codificada anteriormente, que conecte todos os meios desconhecidos. Se o anterior fizer grandes diferenças entre os meios muito improváveis, isso será refletido no posterior, tornando-o perfeito.
Frank Harrell
@ Xi'an, você pode dar um exemplo de como você colocará um prior em ? (i,μ)
Chamberlain Foncha 15/03/19
@ Frank Harrel, considere, por exemplo, e . O estimador imparcial de é . O estimador de Bayes de é . Se é o maior também é , porque o estimador Bayes é monótono em . Não importa o quão informativo seja o anterior, isso não será alterado. No entanto, reduz os Bayes positivos em . Mas se o errado foi escolhido, o estimador de Bayes não pode corrigir isso.δiN(a,1)ZiN(δi,1)δiZiδiE(δi|Zi)Zi0ZiE(δi0|Zi0)ZiE(δi0|Zi0)Zi0i0
Chamberlain Foncha 15/03/19
@ChamberlainFoncha: O estimador de Bayes é apenas quando os são independentes a priori. Uma junção anterior em os 'os torna dependentes, na verdade. δ i i μ iE[δi|Zi]δiiμi
Xi'an
E qualquer prior é aceitável do ponto de vista bayesiano, por exemplo, uma distribuição uniforme no índice e um prior hierárquico no 's. μi
Xi'an
1

Mesmo que seja um pouco contra-intuitivo, a afirmação está correta. Suponha que para este experimento, então o posterior para é realmente . Esse fato contra-intuitivo é um pouco semelhante ao fato de Bayes ser imune a paradas secretas (precoces) (que também são muito contra-intuitivas).μ 5 N ( x 5 , σ 2 )i=5μ5N(x5,σ2)

O raciocínio bayesiano levaria a conclusões falsas se, para cada um desses experimentos (imagine repeti-lo algumas vezes), apenas os resultados da melhor variedade seriam mantidos. Haveria seleção de dados e os métodos bayesianos claramente não são imunes à seleção (secreta) de dados. Na verdade, nenhum método estatístico é imune à seleção de dados.

Se tal seleção fosse feita, um raciocínio bayesiano completo, levando em consideração essa seleção, poderia facilmente corrigir a ilusão.

No entanto, a frase "estimador Bayes é imune ao viés de seleção" é um pouco perigosa. É fácil imaginar situações em que "seleção" significa outra coisa, como por exemplo, seleção de variáveis ​​explicativas ou seleção de dados. Bayes não é claramente imune a isso.

Benoit Sanchez
fonte