Suponha que eu tenho parâmetros positivos para estimar e suas estimativas imparciais não produzidas pelos estimadores , ou seja, , e assim por diante.
Gostaria de estimar usando as estimativas disponíveis. Claramente, o estimador ingênuo é enviesado mais baixo como
Suponha que eu também tenha a matriz de covariância dos estimadores correspondentes em mãos. É possível obter uma estimativa imparcial (ou menos tendenciosa) do mínimo usando as estimativas fornecidas e a matriz de covariância?
unbiased-estimator
estimators
minimum
Cagdas Ozgenc
fonte
fonte
Respostas:
Por exemplo, deixe e . Seja a quantidade alvo e é uma estimativa de . Se usarmos o estimador "ingênuo" que , o erro de estimativa é delimitado por até constante. (Observe que o erro de estimativa para cada é ). Claro, seμ = ( μ 1 , ... , μ n ) θ = min i μ i θ θ θ = min I ( ˉ Y i ) ¯ Y i = 1 1Y1,…,YN∼N(μ,σ2I) μ=(μ1,…,μn) θ=miniμi θ^ θ θ^=mini(Y¯i) L2E[ θ -θ]2⪅σ2lognYi¯=1N∑Nj=1Yi,j L2 μiσ2
Portanto, o estimador ingênuo é minimax ideal até constante, e não há melhor estimativa de nesse sentido.θ
fonte
EDIT: O seguinte responde a uma pergunta diferente da que foi perguntada - ela é enquadrada como se for considerada aleatória, mas não funciona quando é considerado fixo, o que provavelmente é o que o OP tinha em mente. Se for corrigido, não tenho uma resposta melhor queμ μ min ( μ 1 , . . . , μ n )μ μ μ min(μ^1,...,μ^n)
Se considerarmos apenas estimativas de média e covariância, poderemos tratar como uma amostra única da distribuição normal multivariada. Uma maneira simples de obter uma estimativa do mínimo é extrair um grande número de amostras do , calcular o mínimo de cada amostra e, em seguida, calcular a média desses mínimos.H V N- ( μ , Σ )(μ1,...,μn) MVN(μ^,Σ)
O procedimento acima e suas limitações podem ser entendidos em termos bayesianos - tomando a notação da Wikipedia no MVN , se é a covariância conhecida dos estimadores e temos uma observação, a distribuição posterior da articulação é onde e surgem do anterior onde, antes de observar quaisquer dados, usamos o anterior ). Como você provavelmente não está disposto a colocar anteriores em , podemos assumir o limite como , resultando em flat anterior e posterior se tornandoμ ~ H V N ( μ + m λ 0Σ μ∼MVN(μ^+mλ01+m,1n+mΣ) λ0 m μ∼MVN(λ0,m−1Σ μ m→0 μ∼MVN(μ^,Σ) . No entanto, dado o plano anterior, estamos implicitamente assumindo que os elementos de diferem muito (se todos os números reais forem igualmente prováveis, obter valores semelhantes é muito improvável).μ
Uma simulação rápida mostra que a estimativa com este procedimento superestima levemente quando os elementos de diferem muito e subestima quando os elementos são semelhantes. Alguém poderia argumentar que, sem nenhum conhecimento prévio, esse é um comportamento correto. Se você estiver disposto a declarar pelo menos algumas informações anteriores (por exemplo, ), os resultados poderão se comportar um pouco melhor para o seu caso de uso.min(μ) μ min(μ) m=0.1
Se você estiver disposto a assumir mais estrutura, poderá escolher uma distribuição melhor do que a multivariável normal. Também pode fazer sentido usar Stan ou outro amostrador MCMC para ajustar as estimativas de em primeiro lugar. Isso você um conjunto de amostras de que refletem a incerteza nos próprios estimadores, incluindo sua estrutura de covariância (possivelmente mais rica do que o MVN pode fornecer). Mais uma vez, é possível calcular o mínimo para cada amostra para obter uma distribuição posterior sobre os mínimos e calcular a média dessa distribuição se precisar de uma estimativa pontual.μ (μ1,...,μn)
fonte