Como construir um exemplo de uma distribuição de probabilidade para a qual mantém, assumindo ?E ( 1X )=1E ( X )
E(1X)=1E(X) P(X≠0)=1P(X≠0)=1
A desigualdade resultante da desigualdade de Jensen para um RV com valor positivo é como (a desigualdade inversa se ). Isso ocorre porque o mapeamento x \ mapsto \ frac {1} {x} é convexo para x> 0 e côncavo para x <0 . Seguindo a condição de igualdade na desigualdade de Jensen, acho que a distribuição precisa ser degenerada para que a igualdade exigida seja mantida. Um caso trivial em que a igualdade se mantém é, obviamente, se X = 1 ae Aqui está um exemplo que encontrei em um livro de problemas: Considere uma variável aleatória discreta X tal queX
Este exemplo mostra que não precisa ser positivo (ou negativo) ae para manter a igualdade no título. A distribuição aqui também não é degenerada.X
Como construo um exemplo, possivelmente o que encontrei no livro? Existe alguma motivação?
Respostas:
Vamos construir todos os exemplos possíveis de variáveis aleatórias XX para as quais E [ X ] E [ 1 / X ] = 1E[X]E[1/X]=1 . Então, entre eles, podemos seguir algumas heurísticas para obter o exemplo mais simples possível. Essas heurísticas consistem em fornecer os valores mais simples possíveis para todas as expressões que abandonam uma análise preliminar. Esse é o exemplo do livro didático.
Análise preliminar
Isso requer apenas um pouco de análise com base nas definições. A solução é apenas de interesse secundário: o objetivo principal é desenvolver insights para nos ajudar a entender os resultados intuitivamente.
Primeiro, observe que a desigualdade de Jensen (ou a desigualdade de Cauchy-Schwarz) implica que, para uma variável aleatória positiva XX , E [ X ] E [ 1 / X ] ≥ 1E[X]E[1/X]≥1 , com a igualdade mantendo se e somente se XX for "degenerado": isto é , XX é quase certamente constante. Quando XX é uma variável aleatória negativa, - X−X é positivo e o resultado anterior se mantém com o sinal de desigualdade invertido. Consequentemente, qualquer exemplo em que E [ 1 / X ] = 1 / E[ X ]E[1/X]=1/E[X] deve ter probabilidade positiva de ser negativo e probabilidade positiva de ser positivo.
O insight aqui é que qualquer XX com E [ X ] E [ 1 / X ] = 1E[X]E[1/X]=1 deve, de alguma forma, "equilibrar" a desigualdade de sua parte positiva contra a desigualdade na outra direção da sua parte negativa. Isso ficará mais claro à medida que avançamos.
Considere qualquer variável aleatória X diferente de zeroX . Uma etapa inicial na formulação de uma definição de expectativa (pelo menos quando isso é feito em generalidade total usando a teoria da medida) é decompor XX em suas partes positivas e negativas, ambas variáveis aleatórias positivas:
Y = Parte positiva ( X ) = máx ( 0 , X ) ; Z = Parte negativa ( X ) = - min ( 0 , X ) .
Pensemos de XX como uma mistura de YY com peso pp e - Z−Z com peso 1 - p1−p onde p = Pr ( X > 0 ) , 1 - p = Pr ( X < 0 ) .
Para simplificar um pouco a próxima álgebra, observe que o redimensionamento uniforme de XX por um número σσ não altera E [ X ] E [ 1 / X ] -E[X]E[1/X] mas multiplica E [ Y ]E[Y] e E [ Z ]E[Z] cada um por σσ . Para positivo σσ , esta eleva-se a simplesmente selecionar as unidades de medida de XX . Um negativo σσ comuta os papéis de YY e ZZ . Escolhendo o sinal de σσ apropriadamente, portanto, podemos supor E [ Z ] = 1 e E [ Y ] ≥ E [ Z ] .
Notação
É isso para simplificações preliminares. Para criar uma boa notação, vamos escrever
μ = E [ Y ] ; v = E [ 1 / Y ] ; λ = E [ 1 / Z ]
pelas três expectativas que não podemos controlar. Todas as três quantidades são positivas. A desigualdade de Jensen afirma
μ ν ≥ 1 e λ ≥ 1.
A Lei da Probabilidade Total expressa as expectativas de XX e 1 / X1/X em termos das quantidades que denominamos:
E [ X ] = E [ X ∣ X > 0 ] Pr ( X > 0 ) + E [ X ∣ X < 0 ] Pr ( X < 0 ) = μ p - ( 1 - p ) = ( μ + 1 ) p - 1
e, como 1 / X tem o mesmo sinal que X ,1/X X
E [ 1X ]=E[1X ∣X>0]Pr(X>0)+E[1X ∣X<0]Pr(X<0)=νp-λ(1-p)=(ν+λ)p-λ.
Igualar o produto dessas duas expressões com 1 fornece um relacionamento essencial entre as variáveis:1
1=E[X]E[1X]=((μ+1)p−1)((ν+λ)p−λ).
Reformulation of the Problem
Suppose the parts of XX --YY and ZZ --are any positive random variables (degenerate or not). That determines μ,ν,μ,ν, and λλ . When can we find pp , with 0<p<10<p<1 , for which (∗)(∗) holds?
This clearly articulates the "balancing" insight previously stated only vaguely: we are going to hold YY and ZZ fixed and hope to find a value of pp that appropriately balances their relative contributions to XX . Although it's not immediately evident that such a pp need exist, what is clear is that it depends only on the moments E[Y]E[Y] , E[1/Y]E[1/Y] , E[Z]E[Z] , and E[1/Z]E[1/Z] . The problem thereby is reduced to relatively simple algebra--all the analysis of random variables has been completed.
Solution
This algebraic problem isn't too hard to solve, because (∗)(∗) is at worst a quadratic equation for pp and the governing inequalities (1)(1) and (2)(2) are relatively simple. Indeed, (∗)(∗) tells us the product of its roots p1p1 and p2p2 is
p1p2=(λ−1)1(μ+1)(ν+λ)≥0
and the sum is
p1+p2=(2λ+λμ+ν)1(μ+1)(ν+λ)>0.
Therefore both roots must be positive. Furthermore, their average is less than 11 , because
1−(p1+p2)2=λμ+ν+2μν2(μ+1)(ν+λ)>0.
(By doing a bit of algebra, it's not hard to show the larger of the two roots does not exceed 11 , either.)
A Theorem
Here is what we have found:
That gives us a rich set of examples indeed!
Constructing the Simplest Possible Example
Having characterized all examples, let's proceed to construct one that is as simple as possible.
For the negative part Z, let's choose a degenerate variable--the very simplest kind of random variable. It will be scaled to make its value 1, whence λ=1. The solution of (∗) includes p1=0, reducing it to an easily solved linear equation: the only positive root is
p=11+μ+11+ν.
For the positive part Y, we obtain nothing useful if Y is degenerate, so let's give it some probability at just two distinct positive values a<b, say Pr(X=b)=q. In this case the definition of expectation gives
μ=E[Y]=(1−q)a+qb; ν=E[1/Y]=(1−q)/a+q/b.
To make this even simpler, let's make Y and 1/Y identical: this forces q=1−q=1/2 and a=1/b. Now
μ=ν=b+1/b2.
The solution (3) simplifies to
p=21+μ=42+b+1/b.
How can we make this involve simple numbers? Since a<b and ab=1, necessarily b>1. Let's choose the simplest number greater than 1 for b; namely, b=2. The foregoing formula yields p=4/(2+2+1/2)=8/9 and our candidate for the simplest possible example therefore is
Pr(X=2)=Pr(X=b)=Pr(Y=b)p=qp=1289=49;Pr(X=1/2)=Pr(X=a)=Pr(Y=a)p=qp=⋯=49;Pr(X=−1)=Pr(Z=1)(1−p)=1−p=19.
This is the very example offered in the textbook.
fonte
As you've mentioned, if X is positive then E(1/X)=1/E(X) occurs only when X is almost surely constant. Otherwise you need X to take both negative and positive values.
To construct such an example, first go as simple as possible. Assume X takes two values, a and b, with probabilities p and 1−p respectively. Then E(X)=ap+b(1−p)
Next try: a distribution with three possible values. Here there are many more choices. The example you cited tries an X such that 1/X has the same distribution. If we know X takes three values, it must be that one of the values is either 1 or −1, and the other two must be a and 1/a for some choice of a. For definiteness let's try P(X=a)=P(X=1/a)=p, and P(X=−1)=1−2p. Then E(1/X)=E(X)=(a+1a)p−(1−2p)=(2+a+1a)p−1.
fonte