Estou lendo um aprendizado profundo de Ian Goodfellow et al. Ele introduz o viés como
que e são o parâmetro estimado e o parâmetro real subjacente, respectivamente.
A consistência, por outro lado, é definida por
o que significa que para qualquer , como
Em seguida, diz que consistência implica imparcialidade, mas não vice-versa:
A consistência garante que o viés induzido pelo estimador diminua à medida que o número de exemplos de dados aumenta. No entanto, o contrário não é verdadeiro - a imparcialidade assintótica não implica consistência. Por exemplo, considere estimar o parâmetro médio μ de uma distribuição normal N (x; μ, σ2), com um conjunto de dados composto por m amostras: . Poderíamos usar a primeira amostra do conjunto de dados como um estimador imparcial: . Nesse caso, E (\ hat θ_m) = θ para que o estimador seja imparcial, não importa quantos pontos de dados sejam vistos. Isso, é claro, implica que a estimativa é assintoticamente imparcial. No entanto, este não é um estimador consistente, pois não é o caso de \ hatθ_m → θ comoθ = x ( 1 ) E( θ m )= θ θ m → θ m→ ∞
Não sei se entendi corretamente o parágrafo acima e os conceitos de imparcialidade e consistência. Espero que alguém possa me ajudar a verificar. Desde já, obrigado.
Tanto quanto eu entendo, consistência implica imparcialidade e baixa variação e, portanto, a imparcialidade sozinha não é suficiente para implicar consistência.
Respostas:
Nesse parágrafo, os autores estão dando um exemplo extremo para mostrar como ser imparcial não significa que uma variável aleatória esteja convergindo para qualquer coisa.
Os autores estão colhendo uma amostra aleatória e desejam estimar . Observando que , poderíamos produzir um estimador imparcial de ignorando todos os nossos dados, exceto o primeiro ponto . Mas essa é claramente uma péssima idéia, portanto a imparcialidade por si só não é um bom critério para avaliar um estimador. De alguma forma, à medida que obtemos mais dados, queremos que nosso estimador varie cada vez menos de , e é exatamente isso que a consistência diz: para qualquer distância , a probabilidade de que esteja mais do que longe deμ E ( X 1 ) = μ μ X 1 μ £ q n £ q 0 n → ∞ n q σ 2 n = 1X1,…,Xn∼N(μ,σ2) μ E(X1)=μ μ X1 μ ε θ^n ε θ vai para como . E isso pode acontecer mesmo que qualquer finito seja tendencioso. Um exemplo disso é o estimador de variância em uma amostra normal. Isso é tendencioso, mas consistente.0 n→∞ n θ^ σ^2n=1n∑ni=1(yi−y¯n)2
Intuitivamente, uma estatística é imparcial se igualar exatamente à quantidade alvo quando a média é calculada sobre todas as amostras possíveis. Mas sabemos que a média de um monte de coisas não precisa estar nem perto das coisas que estão sendo calculadas; essa é apenas uma versão mais sofisticada de como a média de e é , embora nem nem estejam particularmente próximos a (dependendo de como você mede "fechar").1 1 / 2 0 1 1 / 20 1 1/2 0 1 1/2
Aqui está outro exemplo (embora este seja quase o mesmo exemplo disfarçado). Deixe e deixe . Nosso estimador de será . Observe que , de fato, temos um estimador imparcial. Mas portanto esse estimador definitivamente não está convergindo para algo próximo de , e para cada realmente ainda temos .X1∼Bern(θ) X2=X3=⋯=X1 θ θ^(X)=X¯n EX¯n=p X¯n=X1∈{0,1} θ∈(0,1) n X¯n∼Bern(θ)
fonte
Direita. Ou, usando os termos ligeiramente mais leigos de "precisão" para viés baixo e "precisão" para variação baixa, a consistência exige que sejamos exatos e precisos. Ser preciso não significa que estamos atingindo o alvo. É como a velha piada sobre dois estatísticos que vão caçar. Um deles sente falta de um cervo três metros à esquerda. O outro erra três metros à direita. Eles então se felicitam com base em que, em média, atingem o cervo. Mesmo que seu viés seja zero, para realmente atingir o cervo, eles também precisam de baixa variação.
fonte