Eu sei que a média da soma das variáveis independentes é a soma das médias de cada variável independente. Isso também se aplica a variáveis dependentes?
mean
non-independent
Gh75m
fonte
fonte
Respostas:
A expectativa (considerando a média) é um operador linear .
Isso significa que , entre outras coisas,E(X+Y)=E(X)+E(Y) para quaisquer duas variáveis aleatóriasX eY (para as quais existem expectativas), independentemente de serem independentes ou não.
Podemos generalizar (por exemplo por indução ), de modo queE ( ∑ni = 1XEu) = ∑ni = 1E(Xi) desde que cada expectativa E(Xi) existe.
Portanto, sim, a média da soma é igual à soma da média, mesmo que as variáveis sejam dependentes. Mas observe que isso não se aplica à variação! Portanto, enquantoVar(X+Y)=Var(X)+Var(Y) para variáveis independentes, ou mesmo variáveis dependentes mas não correlacionadas , a fórmula geral é Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y) queCov é a covariância das variáveis.
fonte
TL; DR:
Supondo que exista, a média é um valor esperado e o valor esperado é uma integral, e as integrais têm a propriedade de linearidade em relação às somas.
TS; DR:Yn=∑ni=1Xi E(Yn) X n fX(x)=fX1,...,Xn(x1,...,xn) D=SX1×...×SXn
Uma vez que estamos a lidar com a soma de variáveis aleatórias , ou seja, de uma função de muitos deles, a média da soma de E ( Y n ) é em relação ao seu conjunto de distribuição ( assume-se que existem todos os meios e são finitos) Denoting X o vector multivariada do n de RV, a sua densidade de conjunta pode ser escrito como f X ( x ) = f X 1 , . . . n (
e usando a linearidade das integrais , podemos decompor-se em
For eachn -iterative integral we can re-arrange the order of integration so that, in each, the outer integration is with respect to the variable that is outside the joint density. Namely,
and in general
As we calculate one-by-one the integral in eachn -iterative integral (starting from the inside), we "integrate out" a variable and we obtain in each step the "joint-marginal" distribution of the other variables. Each n -iterative integral therefore will end up as ∫SXjxjfXj(xj)dxj .
Bringing it all together we arrive at
But now each simple integral is the expected value of each random variable separately, so
Note that we never invoked independence or non-independence of the random variables involved, but we worked solely with their joint distribution.
fonte