Estou lendo um comentário em um artigo, e o autor afirma que, às vezes, mesmo que os estimadores (encontrados por ML ou quase-probabilidade máxima) possam não ser consistentes, o poder de um teste de razão de verossimilhança ou razão de quase-verossimilhança ainda pode convergir para 1 como o número de dados observados tende ao infinito (consistência do teste). Como e quando isso acontece? Você conhece alguma bibliografia?
mathematical-statistics
references
inference
power
consistency
Um velho no mar.
fonte
fonte
Respostas:
[Acho que esse pode ser um exemplo do tipo de situação em discussão na sua pergunta.]
Existem inúmeros exemplos de estimadores inconsistentes de ML. A inconsistência é comumente vista com uma variedade de problemas de mistura levemente complicados e problemas de censura.
[A consistência de um teste é basicamente a de que o poder do teste para uma hipótese falsa (fixa) aumenta para um comon→∞ .]
Radford Neal dá um exemplo em sua entrada no blog 09/08/2008 Estimativa de verossimilhança máxima inconsistente: Um exemplo "comum" . Envolve a estimativa do parâmetro em:θ
(Neal usa onde eu tenho θ ) onde a estimativa de ML de θ tenderá a 0 como n → ∞t θ θ 0 n→∞ (e, de fato, a probabilidade pode ser muito maior em um pico próximo de 0 do que no valor verdadeiro para tamanhos de amostra bastante modestos). No entanto, é o caso de um pico próximo ao valor verdadeiro θ , é apenas menor que o próximo a 0.
Imagine agora dois casos relacionados a essa situação:
a) realização de um teste de razão de verossimilhança de contra a alternativa H 1 : θ < θ 0H0:θ=θ0 H1:θ<θ0 ;
b) realizar um teste da razão de verossimilhança de contra a alternativa H 1 : θ ≠ θ 0 .H0:θ=θ0 H1:θ≠θ0
No caso (a), imagine que o verdadeiro (de modo que a alternativa seja verdadeira e 0 seja o outro lado do verdadeiro θ ). Então, apesar de a probabilidade muito próxima de 0 exceder a de θ , a probabilidade de θ excede, no entanto, a probabilidade de θ 0, mesmo em amostras pequenas, e a proporção continuará a crescer como n → ∞ , em tais de maneira a tornar a probabilidade de rejeição em um teste de razão de verossimilhança ir para 1.θ<θ0 0 θ θ θ θ0 n→∞
De fato, mesmo no caso (b), desde que seja fixo e limitado a 0 , também deve ser o caso de a razão de verossimilhança crescer de maneira a tornar a probabilidade de rejeição em um teste de razão de verossimilhança também abordagem 1.θ0 0
Portanto, isso parece ser um exemplo de estimativa inconsistente de ML, onde o poder de um LRT deve, no entanto, ir para 1 (exceto quando ).θ0=0
[Observe que não há realmente nada disso que ainda não esteja na resposta do whuber, o que eu acho que é um exemplo de clareza e é muito mais simples para entender a diferença entre a consistência do teste e a consistência de um estimador. O fato de o estimador inconsistente no exemplo específico não ser o ML não importa muito para entender essa diferença - e trazer um estimador inconsistente que é especificamente o ML - como tentei fazer aqui - não altera realmente o explicação de qualquer maneira substantiva. O único ponto real do exemplo aqui é que acho que ele aborda sua preocupação em usar um estimador de ML.]
fonte
The distribution ofT(X1,…,Xn)=1+X¯ is Normal(μ+1,1/n−−√) . It converges to μ+1≠μ , showing it is inconsistent.
In comparing a null hypothesisμ=μ0 to a simple alternative, say μ=μA , the log likelihood ratio will be exactly the same as the LLR based on X¯ instead of T . (In effect, T is useful for comparing the null hypothesis μ+1=μ0+1 to the alternative hypothesis μ+1=μA+1 .) Since the test based on the mean has power converging to 1 for any test size α>0 and any effect size, the power of the test using T itself also converges to 1 .
fonte