Funções de Variáveis ​​Aleatórias Independentes

25

A afirmação de que funções de variáveis ​​aleatórias independentes são elas próprias independentes, é verdade?

Vi esse resultado frequentemente usado implicitamente em algumas provas, por exemplo, na prova de independência entre a média da amostra e a variação da amostra de uma distribuição normal, mas não consegui encontrar justificativas para isso. Parece que alguns autores consideram isso dado, mas não tenho certeza de que esse seja sempre o caso.

JohnK
fonte

Respostas:

33

A definição mais geral e abstrata de independência torna essa afirmação trivial, ao mesmo tempo em que fornece uma condição de qualificação importante: que duas variáveis ​​aleatórias são independentes significa que as álgebras sigma que geram são independentes. Como a sigma-álgebra gerada por uma função mensurável de uma sigma-álgebra é uma sub-álgebra, a maioria das funções mensuráveis ​​dessas variáveis ​​aleatórias possui álgebras independentes, de onde essas funções são independentes.

(Quando uma função não é mensurável, geralmente não cria uma nova variável aleatória, portanto o conceito de independente nem se aplica.)


Vamos desembrulhar as definições para ver como isso é simples. Lembre-se de que uma variável aleatória é uma função com valor real definida no "espaço da amostra" (o conjunto de resultados que está sendo estudado por probabilidade).ΩXΩ

  1. Uma variável aleatória é estudada por meio das probabilidades de que seu valor esteja dentro de vários intervalos de números reais (ou, de maneira mais geral, conjuntos construídos de maneira simples a partir de intervalos: esses são os conjuntos mensuráveis ​​de números reais de Borel).X

  2. Correspondente a qualquer Borel conjunto mensurável é o evento que consiste de todos os resultados para o qual mentiras em .X ( I ) ω X ( ω ) II X(I)ωX(ω)I

  3. A sigma-álgebra gerada por é determinada pela coleção de todos esses eventos.X

  4. A definição ingênua diz que duas variáveis ​​aleatórias e são independentes "quando suas probabilidades se multiplicam". Ou seja, quando sou um conjunto mensurável de Borel e é outro, entãoY I JXYIJ

    Pr(X(ω)I and Y(ω)J)=Pr(X(ω)I)Pr(Y(ω)J).

  5. Mas na linguagem dos eventos (e das álgebras sigma) é o mesmo que

    Pr(ωX(I) and ωY(J))=Pr(ωX(I))Pr(ωY(J)).

Considere agora duas funções e suponha que e sejam variáveis ​​aleatórias. (O círculo é composição funcional: . É o que significa para ser uma "função de uma variável aleatória".) é apenas a teoria dos conjuntos elementares - que f X g Y ( f X ) ( ω ) = f ( X ( ω ) ) ff,g:RRfXgY(fX)(ω)=f(X(ω))f

(fX)(I)=X(f(I)).

Em outras palavras, todo evento gerado por (que está à esquerda) é automaticamente um evento gerado porXfXX (conforme exibido na forma do lado direito). Portanto (5) se aplica automaticamente a e : não há nada para verificar! f X g YfXgY


NB Você pode substituir "valor real" em todos os lugares por "com valores em " sem precisar alterar mais nada de maneira material. Isso abrange o caso de variáveis ​​aleatórias com valor vetorial.Rd

whuber
fonte
11
Álgebras Sigma são coisas avançadas (nível de pós-graduação).
Aksakal
3
@Aksakal Depende de qual escola você frequenta ou de quais livros você lê. (Ensinei esse material com sucesso no segundo ano do ensino médio. Também existem relatos maravilhosamente acessíveis dessa teoria no nível de graduação, como os textos de Steven Shreve sobre cálculo estocástico, que são dirigidos a estudantes com apenas um histórico em cálculo.) Mas como isso é relevante? Qualquer justificativa - mesmo sofisticada - deve ser preferida a uma afirmação injustificada.
whuber
11
Você é muito gentil em fazer todo esse trabalho para ajudar alguém que fez uma pergunta. Obrigado novamente. E você está certo, as definições não são muito assustadoras, afinal.
JohnK
13

Considere esta prova "menos avançada":

Seja , onde são variáveis ​​aleatórias independentes são funções mensuráveis. Então: Usando a independência de e , X , Y f , g P { f ( X ) x  e  g ( Y ) y }X:ΩXRn,Y:ΩYRm,f:RnRk,g:RmRpX,Yf,gXYP({X{w R n :f(w)x}})

P{f(X)x and g(Y)y}=P({f(X)x}{g(Y)y})=P({X{wRn:f(w)x}}{Y{wRm:g(w)y}}).
XY
P({X{wRn:f(w)x}}{Y{wRm:g(w)y}})==P{X{wRn:f(w)x}P{Y{wRm:g(w)y}}=P{f(X)x}P{g(Y)y}.

A idéia é perceber que o conjunto assim propriedades que são válidos para são estendidas para e o mesmo acontece para .X f ( X ) Y

{f(X)x}{wΩX:f(X(w))x}={X{wRn:f(w)x}},
Xf(X)Y
Guilherme Salomé
fonte
2
+1. Obrigado por esta contribuição, que se concentra tão claramente na idéia essencial. Bem vindo ao nosso site!
whuber
7

Sim, e são independentes de qualquer funções e , desde que e são independentes. É um resultado muito conhecido, estudado em cursos de teoria das probabilidades. Tenho certeza que você pode encontrá-lo em qualquer texto padrão como o de Billingsley.h ( Y ) g h X Yg(X)h(Y)ghXY

Aksakal
fonte
Obrigado, atualmente estou estudando Hogg & Craig e MGB. Billingsley é o próximo passo lógico.
JohnK
3
Billinglsey é uma tortura, a menos que você seja matemático e já tenha estudado medidas. A introdução de Partarathy é um livro 2-em-1 muito mais fácil, o texto de Alan Karr, Probability, também é de fácil leitura.
Aksakal
Outro texto mais fácil que o de Billingsley: probability.ca/jeff/grprobbook.html
Adrian
0

Não como uma alternativa, mas como uma adição às respostas brilhantes anteriores, observe que esse resultado é de fato muito intuitivo.

Geralmente, pensamos que e sendo independentes significa que conhecer o valor de não fornece informações sobre o valor de e vice-versa. Essa interpretação obviamente implica que você não pode "espremer" uma informação aplicando uma função (ou por qualquer outro meio).XYXY

Alexis
fonte