Estou confuso ao aplicar expectativa no denominador.
E ( 1 / X ) =?
pode ser 1 / E ( X )
expected-value
Shan
fonte
fonte
Respostas:
Não, em geral não pode; A desigualdade de Jensen nos diz que se XX é uma variável aleatória e φφ é uma função convexa, então φ ( E [ X ] ) ≤ E [ φ ( X ) ]φ(E[X])≤E[φ(X)] . Se XX é estritamente positivo, 1 / X1/X é convexo, então E [ 1 / X ] ≥ 1 / E [ X ]E[1/X]≥1/E[X] e, para uma função estritamente convexa, a igualdade só ocorre se XX tem variação zero ... então, nos casos em que tendemos a nos interessar, os dois são geralmente desiguais.
Supondo que estamos lidando com uma variável positiva, se estiver claro para você que XX e 1 / X1/X serão inversamente relacionados ( Cov ( X , 1 / X ) ≤ 0Cov(X,1/X)≤0 ), isso implicaria E ( X ⋅ 1 / X ) - E ( X ) E ( 1 / X ) ≤ 0, oE(X⋅1/X)−E(X)E(1/X)≤0 que implica E ( X ) E ( 1 / X ) ≥ 1 , então E ( 1 / X )E(X)E(1/X)≥1 ≥ 1 / E ( X ) .E(1/X)≥1/E(X)
Use a lei do estatístico inconsciente
E [ g ( X ) ] = ∫ ∞ - ∞ g ( x ) f X ( x ) d x
(no caso contínuo)
então quando g ( X ) = 1X ,E[1g(X)=1X X ]=∫ ∞ - ∞ f(x)x dxE[1X]=∫∞−∞f(x)xdx
Em alguns casos, a expectativa pode ser avaliada por inspeção (por exemplo, com variáveis aleatórias gama), ou derivando a distribuição do inverso, ou por outros meios.
fonte
Como Glen_b diz que isso provavelmente está errado, porque o recíproco é uma função não linear. Se você deseja uma aproximação de E ( 1 / X ),E(1/X) talvez possa usar uma expansão de Taylor em torno de E ( X )E(X) :
E ( 1X )≈E(1E ( X ) -1E ( X ) 2 (X-E(X))+1E ( X ) 3 (X-E(X))2)== 1E ( X ) +1E(X)3Var(X)E(1X)≈E(1E(X)−1E(X)2(X−E(X))+1E(X)3(X−E(X))2)==1E(X)+1E(X)3Var(X)
so you just need mean and variance of X, and if the distribution of XX is symmetric this approximation can be very accurate.
EDIT: the maybe above is quite critical, see the comment from BioXX below.
fonte
Others have already explained that the answer to the question is NO, except trivial cases. Below we give an approach to finding E1XE1X when X>0X>0 with probability one, and the moment generating function MX(t)=EetXMX(t)=EetX do exist. An application of this method (and a generalization) is given in Expected value of 1/x1/x when xx follows a Beta distribution, we will here also give a simpler example.
First, note that ∫∞0e−txdt=1x∫∞0e−txdt=1x (simple calculus exercise). Then, write
E(1X)=∫∞0x−1f(x)dx=∫∞0(∫∞0e−txdt)f(x)dx=∫∞0(∫∞0e−txf(x)dx)dt=∫∞0MX(−t)dt
fonte
An alternative approach to calculating E(1/X)E(1/X) knowing X is a positive random variable is through its moment generating function E[e−λX]E[e−λX] .
Since by elementary calculas
∫∞0e−λxdλ=1x
fonte
To first give an intuition, what about using the discrete case in finite sample to illustrate that E(1/X)≠1/E(X)E(1/X)≠1/E(X) (putting aside cases such as E(X)=0E(X)=0 )?
In finite sample, using the term average for expectation is not that abusive, thus if one has on the one hand
E(X)=1N∑Ni=1XiE(X)=1N∑Ni=1Xi
and one has on the other hand
E(1/X)=1N∑Ni=11/XiE(1/X)=1N∑Ni=11/Xi
it becomes obvious that, with N>1N>1 ,
E(1/X)=1N∑Ni=11/Xi≠N∑Ni=1Xi=1/E(X)E(1/X)=1N∑Ni=11/Xi≠N∑Ni=1Xi=1/E(X)
Which leads to say that, basically, E(1/X)≠1/E(X)E(1/X)≠1/E(X) since the inverse of the (discrete) sum is not the (discrete) sum of inverses.
Analogously in the asymptotic 0-centered continuous case, one has
E(1/X)=∫∞−∞f(x)xdx≠1/∫∞−∞xf(x)dx=1/E(X).
fonte