Vamos supor que temos amostras de duas variáveis aleatórias independentes de Bernoulli, e .B e r ( θ 2 )
Como provamos que ?
Suponha que .
distributions
sampling
bernoulli-distribution
Um velho no mar.
fonte
fonte
Respostas:
Coloque ,b=√a = θ1( 1 - θ1)√n1√ ,
A=(ˉX1-θ1)/a,
B=(ˉX2-θ2)/b. Temos
A→dN(0,1),B→dN(0,1). Em termos de funções características, significa
ϕA(t)≡Eeb = θ2( 1 - θ2)√n2√ A = ( X¯1- θ1) / a B = ( X¯2- θ2) / b A →dN( 0 , 1 ) , B → dN( 0 , 1 )
Queremos provar que
D:= a
Como e B são independentes, ϕ D ( t ) = ϕ A ( aUMA B
como queremos que ele seja.
Esta prova está incompleta. Aqui precisamos de algumas estimativas para convergência uniforme de funções características. No entanto, no caso em consideração, podemos fazer cálculos explícitos. Coloque . ϕ X 1 , 1 ( t )p = θ1, m = n 1
comot3m-3/2→0. Assim, para umtfixo,
ϕD(t)=(1-a2t2
Observe que cálculos semelhantes podem ser feitos para distribuições arbitrárias (não necessariamente Bernoulli) com segundos momentos finitos, usando a expansão da função característica em termos dos dois primeiros momentos.
fonte
Provar sua declaração é equivalente a provar o Teorema do Limite Central (Levy-Lindenberg), que declara
Então é fácil ver que, se colocarmos
e
fonte