Se

9

Isso não é lição de casa.

Seja uma variável aleatória. Se e , segue-se que ?XE[X]=kRVar[X]=0Pr(X=k)=1

Intuitivamente, isso parece óbvio, mas não tenho certeza de como provaria isso. Eu sei de fato que, pelas suposições, segue-se que . Então Isso não parece me levar a lugar algum. Eu poderia tentar Agora desde , segue-se que também.E[X2]=k2

(Rx dF(x))2=Rx2 dF(x).
Var[X]=E[(Xk)2].
(Xk)20E[(Xk)2]0

Mas se eu usasse igualdade, então meu instinto é que , de modo que .

E[(Xk)2]=0
(Xk)20Xk

Como eu saberia disso? Suponho uma prova por contradição.

Se, ao contrário, para todos , então , e para todo . Temos uma contradição, então .XkX(Xk)2>0E[(Xk)2]>0XXk

A prova é sólida - e, se sim, existe talvez uma maneira melhor de provar essa afirmação?

Clarinetist
fonte
@ user777 Eu tentei esse método originalmente (como você pode ver no meu Equação ), mas não sabia ao certo como proceder.
Rx dF(x)=Rx2 dF(x)
Clarinetist
3
Creio que a desigualdade de Chebyshev responde a essa pergunta imediatamente.
whuber
@ whuber: pelo menos a declaração da Wikipedia sobre a desigualdade de Chebyshev exige explicitamente uma variação diferente de zero . Eu realmente não ver se precisamos de algum tipo de prova fundamental para o caso variância de zero ...
Stephan Kolassa
11
@Stephan Você pode facilmente misturar qualquer distribuição não-regenerada com intervalo e aplicar a desigualdade para mostrar que para todos e todos . (δ,δ)Pr(|Xk|>δ)εε>0δ>0
whuber

Respostas:

6

Aqui está uma prova teórica da medida para complementar as outras, usando apenas definições. Trabalhamos em um espaço de probabilidade . Observe que e considere a integral . Suponha que, para algum , exista tal que em e . Então aproxima de baixo, então, pela definição padrão de como o supremo de integrais de funções simples aproximando de baixo, (Ω,F,P)Y:=(XEX)20EY:=Y(ω)P(dω)ϵ>0AFY>ϵAP(A)>0ϵIAYEY

EYϵIAP(dω)=ϵP(A)>0,
que é uma contradição. Assim, , . Feito.ϵ>0P({ω:Y>ϵ})=0
ekvall
fonte
5

Prove isso por contradição. Pela definição da variação e suas suposições, você tem

0=VarX=R(xk)2f(x)dx,

onde é a densidade de probabilidade de . Note-se que ambos e são não negativos.fX(xk)2f(x)

Agora, se , entãoP(X=k)<1

U:=(R{k})f1(]0,[)

tem maior medida do que zero, e . Mas entãokU

U(xk)2f(x)dx>0,

(algum argumento no estilo pode ser incluído aqui) e, portanto,ϵ

0=VarX=R(xk)2f(x)dxU(xk)2f(x)dx>0,

e sua contradição.

Stephan Kolassa
fonte
2

O que é ? É o mesmo que como?XkX=k

ETA: Iirc,XkX(ω)=k  ωΩX=k a.s.

De qualquer forma, é óbvio que

(XE[X])20

Suponha

E[XE[X])2]=0

Então

(XE[X])2=0 a.s.

O último passo que eu acredito envolve continuidade de probabilidade ... ou o que você fez (você está certo).


Há também a desigualdade de Chebyshev :

ϵ>0 ,

P(|Xk|ϵ)0ϵ2=0

P(|Xk|ϵ)=0

P(|Xk|<ϵ)=1

Bom falar de novo .


Btw porque é que

Rx dF(x)=Rx2 dF(x)

?

Parece-me que enquantoLHS=kRHS=k2

BCLC
fonte
11
Sim, você está certo. Eu editei o post
Clarinetist
@Clarinetist Editou também o meu: P
BCLC 04/12/2015