Toda afirmação que encontro do estimador James-Stein assume que as variáveis aleatórias estimadas têm a mesma variação (e unidade).
Mas todos esses exemplos também mencionam que o estimador JS pode ser usado para estimar quantidades sem nada a ver um com o outro. O exemplo da Wikipedia é a velocidade da luz, o consumo de chá em Taiwan e o peso do porco em Montana. Mas, presumivelmente, suas medições nessas três quantidades teriam diferentes variações "verdadeiras". Isso apresenta algum problema?
Isso está vinculado a um problema conceitual maior que eu não entendo, relacionado a esta pergunta: Estimador de James-Stein: Como Efron e Morris calcularam no fator de contração no exemplo de beisebol? Calculamos o fator de contração seguinte maneira:
Intuitivamente, eu pensaria que o termo é realmente - diferente para cada quantidade estimada. Mas a discussão nessa pergunta fala apenas sobre o uso da variação combinada ...
Eu realmente apreciaria se alguém pudesse esclarecer essa confusão!
fonte
Respostas:
Essa questão foi explicitamente respondida na série clássica de artigos sobre o estimador de James-Stein no contexto empírico de Bayes, escrito na década de 1970 por Efron & Morris. Refiro-me principalmente a:
Efron e Morris, 1973, a regra de estimativa de Stein e seus concorrentes - uma abordagem empírica de Bayes
Efron e Morris, 1975, Análise de Dados com o Estimador de Stein e Suas Generalizações
Efron e Morris, 1977, Paradoxo de Stein em Estatística
O artigo de 1977 é uma exposição não técnica que deve ser lida. Lá, eles apresentam o exemplo de rebatidas de beisebol (que é discutido no tópico ao qual você vinculou); neste exemplo, as variações de observação devem ser iguais para todas as variáveis e o fator de contração é constante.c
No entanto, eles passam a dar outro exemplo, que é estimar as taxas de toxoplasmose em várias cidades de El Salvador. Em cada cidade, um número diferente de pessoas foi pesquisado e, portanto, as observações individuais (taxa de toxoplasmose em cada cidade) podem ter variações diferentes (quanto menor o número de pessoas pesquisadas, maior a variação). A intuição é certamente que os pontos de dados com baixa variação (baixa incerteza) não precisam ser encolhidos tão fortemente quanto os pontos de dados com alta variação (alta incerteza). O resultado de sua análise é mostrado na figura a seguir, onde isso pode realmente ser visto como acontecendo:
Os mesmos dados e análises são apresentados no artigo muito mais técnico de 1975, em uma figura muito mais elegante (infelizmente, embora não mostre as variações individuais), consulte a Seção 3:
Lá eles apresentam um tratamento empírico simplificado de Bayes, que é o seguinte. Seja onde é desconhecido. No caso de todos os serem idênticos, o tratamento empírico padrão de Bayes é estimar como e calcular a média a posteriori de como que não é nada além do estimador James-Stein.Xi|θi∼N(θi,Di)θi∼N(0,A) A Di=1 1/(1+A) (k−2)/∑X2j θi θ^i=(1−11+A)Xi=(1−k−2∑X2j)Xi,
Se agora , a regra de atualização de Bayes é e podemos usar o mesmo truque empírico de Bayes para estimar , mesmo que não exista uma fórmula fechada para neste caso (consulte o documento). No entanto, eles observam queDi≠1 θ^i=(1−DiDi+A)Xi A A^
A seção relevante no documento de 1973 é a Seção 8, e é um pouco mais difícil de ler. Curiosamente, eles têm um comentário explícito na sugestão feita por @guy nos comentários acima:
Depois, eles descrevem seu procedimento preferido para estimar que devo confessar que ainda não li completamente (está um pouco envolvido). Sugiro que você procure lá se estiver interessado nos detalhes.A^i
fonte