Melhorando o estimador mínimo

9

Suponha que eu tenho parâmetros positivos para estimar e suas estimativas imparciais não produzidas pelos estimadores , ou seja, , e assim por diante.nμ1,μ2,...,μnnμ1^,μ2^,...,μn^E[μ1^]=μ1E[μ2^]=μ2

Gostaria de estimar usando as estimativas disponíveis. Claramente, o estimador ingênuo é enviesado mais baixo como min(μ1,μ2,...,μn)min(μ1^,μ2^,...,μn^)

E[min(μ1^,μ2^,...,μn^)]min(μ1,μ2,...,μn)

Suponha que eu também tenha a matriz de covariância dos estimadores correspondentes em mãos. É possível obter uma estimativa imparcial (ou menos tendenciosa) do mínimo usando as estimativas fornecidas e a matriz de covariância?Cov(μ1^,μ2^,...,μn^)=Σ

Cagdas Ozgenc
fonte
Você está disposto a usar a abordagem Bayesian MCMC ou precisa de alguma fórmula em formato fechado?
Martin Modrák
Mas uma abordagem simples de amostragem está OK? (também, você não estritamente precisa priores para análise Bayesiana, mas isso é outra história)
Martin Modrák
@ MartinModrák Não tenho experiência com abordagens de amostragem. Se faço bayesiano, costumo fazer coisas conjugadas simples. Mas se você acha que esse é o caminho a seguir, irei adiante e aprenderei.
Cagdas Ozgenc #
O que mais você sabe sobre essas estimativas? Você conhece as expressões? Você conhece a distribuição dos dados usados ​​para estimar esses parâmetros?
wij
@wij Posso tentar estimar alguns outros momentos dos estimadores, se necessário. Não tenho uma expressão analítica para a distribuição dos estimadores. A solução não deve (como um requisito meu) depender da distribuição dos próprios dados.
Cagdas Ozgenc #

Respostas:

4

min(μ1,,μn)

Por exemplo, deixe e . Seja a quantidade alvo e é uma estimativa de . Se usarmos o estimador "ingênuo" que , o erro de estimativa é delimitado por até constante. (Observe que o erro de estimativa para cada é ). Claro, seμ = ( μ 1 , ... , μ n ) θ = min i μ i θ θ θ = min I ( ˉ Y i ) ¯ Y i = 1 1Y1,,YNN(μ,σ2I)μ=(μ1,,μn)θ=miniμiθ^θθ^=mini(Y¯i)L2E[ θ -θ]2σ2lognYi¯=1Nj=1NYi,jL2 μiσ2

E[θ^θ]2σ2lognN
μi μiσσ2σ2Nμiestão longe um do outro e é muito pequeno, o erro de estimativa deve ser reduzido para . No entanto, na pior das hipóteses, não há estimativa de funcionar melhor que o estimador ingênuo. Você pode mostrar com precisão que onde o menor assume todo o possível estiamto de base na amostra e o supremo assume toda a configuração possível de 's.σ θinf θ sup μ 1 ,..., μ n E[ θ -θ]2σ2lognσ2Nθ θY1,,YNμi
infθ^supμ1,,μnE[θ^θ]2σ2lognN
θY1,,YNμi

Portanto, o estimador ingênuo é minimax ideal até constante, e não há melhor estimativa de nesse sentido.θ

JaeHyeok Shin
fonte
As informações adicionais fornecidas não estão ajudando em nada? Quais estatísticas adicionais podem ser úteis?
Cagdas Ozgenc
Desculpe por fazer um ponto confuso. Não quis dizer que as informações adicionais (covariância) não são úteis. Eu só queria salientar que estimar o mínimo de várias formas de população é de natureza difícil. Informações de covariância devem ser úteis. Por exemplo, no caso Normal, se tivermos correlações perfeitas para todos os pares possíveis, isso significa que as observações aleatórias vêm de média diferente + um termo de ruído comum. Nesse caso, o estimador ingênuo (mínimo de médias amostrais) é imparcial.
JaeHyeok Shin
3

EDIT: O seguinte responde a uma pergunta diferente da que foi perguntada - ela é enquadrada como se for considerada aleatória, mas não funciona quando é considerado fixo, o que provavelmente é o que o OP tinha em mente. Se for corrigido, não tenho uma resposta melhor queμ μ min ( μ 1 , . . . , μ n )μμμmin(μ^1,...,μ^n)


Se considerarmos apenas estimativas de média e covariância, poderemos tratar como uma amostra única da distribuição normal multivariada. Uma maneira simples de obter uma estimativa do mínimo é extrair um grande número de amostras do , calcular o mínimo de cada amostra e, em seguida, calcular a média desses mínimos.H V N- ( μ , Σ )(μ1,...,μn)MVN(μ^,Σ)

O procedimento acima e suas limitações podem ser entendidos em termos bayesianos - tomando a notação da Wikipedia no MVN , se é a covariância conhecida dos estimadores e temos uma observação, a distribuição posterior da articulação é onde e surgem do anterior onde, antes de observar quaisquer dados, usamos o anterior ). Como você provavelmente não está disposto a colocar anteriores em , podemos assumir o limite como , resultando em flat anterior e posterior se tornandoμ ~ H V N ( μ + m λ 0ΣμMVN(μ^+mλ01+m,1n+mΣ)λ0mμMVN(λ0,m1Σμm0μMVN(μ^,Σ). No entanto, dado o plano anterior, estamos implicitamente assumindo que os elementos de diferem muito (se todos os números reais forem igualmente prováveis, obter valores semelhantes é muito improvável).μ

Uma simulação rápida mostra que a estimativa com este procedimento superestima levemente quando os elementos de diferem muito e subestima quando os elementos são semelhantes. Alguém poderia argumentar que, sem nenhum conhecimento prévio, esse é um comportamento correto. Se você estiver disposto a declarar pelo menos algumas informações anteriores (por exemplo, ), os resultados poderão se comportar um pouco melhor para o seu caso de uso.min(μ)μmin(μ)m=0.1

Se você estiver disposto a assumir mais estrutura, poderá escolher uma distribuição melhor do que a multivariável normal. Também pode fazer sentido usar Stan ou outro amostrador MCMC para ajustar as estimativas de em primeiro lugar. Isso você um conjunto de amostras de que refletem a incerteza nos próprios estimadores, incluindo sua estrutura de covariância (possivelmente mais rica do que o MVN pode fornecer). Mais uma vez, é possível calcular o mínimo para cada amostra para obter uma distribuição posterior sobre os mínimos e calcular a média dessa distribuição se precisar de uma estimativa pontual.μ(μ1,...,μn)

Martin Modrák
fonte
Observe que não estou tentando estimar o mínimo de N variáveis ​​aleatórias. Estou tentando estimar o mínimo de N parâmetros. Parece que sua sugestão é uma estimativa para enquanto eu preciso de uma estimativa paraE[min(μ1^,μ2^,...,μn^)]min(μ1,μ2,...,μn)
Cagdas Ozgenc
Tentei editar a resposta para explicar a lógica, espero que ajude.
Martin Modrák
Portanto, esse método de amostragem está produzindo melhores resultados em comparação com o estimador simples , que também funciona bem quando está longe separados e subestima quando estão próximos. Para que seja útil, deve funcionar quando estiverem perto. min(μ1^,μ2^,...,μn^)μi
Cagdas Ozgenc 09/07/19
Observe também que todos são números positivos; portanto, você realmente não precisa da parte negativa da linha real. μi
Cagdas Ozgenc 09/07/19
11
Você está certo em ignorar os sinais e não vejo uma maneira simples de acomodá-los. Além disso, o estimador que propus se sai melhor quando é considerado aleatório, mas é pior que para fixo . Eu não acho que posso salvar isso e não tenho certeza qual é o melhor caminho a seguir - estou inclinado a tentar excluir a resposta, pois ela realmente não responde à pergunta, mas (espero) a resposta também contém algumas idéias que pode ser útil para alguém. m i n ( μ ) μμmin(μ^)μ
Martin Modrák