Dois eventos são independentes quando , estou tentando me aprofundar nessa definição e tentar reconciliá-la com nossa idéia intuitiva de independência no mundo real. Eu sinto que a equação pode ser alcançada por acidente, sem qualquer fundamento para uma independência real.
Eu estava tentando construir um experimento mental para mostrar que independência probabilística não tem que significar independência causal. Por exemplo, considere os eventos exaustivos e mutuamente mutuantes:
- : não está chovendo
- : a grama não é verde
- : está chovendo e a grama é verde
Eu estava tentando atribuir probabilidades: maneira tão bacana que produza (está chovendo) e (a grama é verde) independente. Teríamos: E de nossa independência desejada: O que implica que: No entanto, isso acontece apenas se ou ; nesse caso, não há razão para falar sobre os eventos como tendo alguma causalidade.
Existe algum exemplo intuitivo e rápido do que eu estava tentando demonstrar? Eu estava a pensar em alguma variável ter uma influência causal sobre a , mas também em alguns terceira variável que tem o efeito oposto em . Isso significa que e são independentes, mas não consigo encontrar as ferramentas certas.
fonte
Respostas:
Considere uma porta OR exclusiva (XOR) que é um circuito eletrônico (porta lógica) com duas entradas e e uma saída que assumem valores no conjunto discreto . Pense nelas como variáveis booleanas (ou variáveis aleatórias de Bernouiii, se quiser). é causalmente relacionado a e pela operação Exclusive-OR: se você é um Booleander ou se você é um Bernoullist. Seja como for, suponha queX Y Z X, Y, Z { 0 , 1 } Z X Y Z= X⊕ Y= XY¯∨X¯Y Z= X( 1 - Y) + ( 1 - X) Y= X+Y−2XY X e são independentes (o que significa que para todos os em . Então,
Tudo está correto até agora? Agora, suponha que . Então, é fácil verificar que também agora,. e são muito definitivamente causalmente relacionada: a saída de uma porta XOR não dependem de sua entrada (s) Mas, a. evento ocorre se e somente se o eventoY P(X=a,Y=b)=P(X=a)P(Y=b) a , b { 0 , 1 } P( Z= 1 )= P( X≠ Y)= P( X= 1 , Y= 0 ) + P( X= 0 , Y= 1 )= P( X= 1 ) P( Y= 0 ) + P( X= 0 ) P( Y= 1 ) . P( X= 1 ) = P( Y= 1 ) =1 12 P( Z= 1 ) =1 12 Z X
{Z=1,X=1} {X=1,Y=0} ocorre e, portanto,
mostrando que os eventos causalmente relacionados e são de fato probabilisticamente independentes. Da mesma forma, e independentemente, de fato, os três eventos , e são pareado independente, mas não mutuamente independente desde queP(Z=1,X=1)=P(X=1,Y=0)=14=P(Z=1)P(X=1)=12×12 {Z=1} {X=1} {Z=1} {Y=1} {X=1} {Y=1} {Z=1} P(X=1,Y=1,Z=1)=0≠P(X=1)P(Y=1)P(Z=1)=18.
Assim, a dependência causal não precisa ser refletida na dependência probabilística ; é possível que eventos causalmente dependentes sejam probabilisticamente independentes. Também devo dizer que esta independência probabilística é puramente uma propriedade da probabilidade medida: se tomarmos ou para ser qualquer número entre outra do que a que Eu escolhi sorrateiramente acima, a independência probabilística desaparece e os eventos causalmente dependentes também são probabilisticamente dependentes.P(X=1) P(Y=1) (0,1) 12
Antes que você pense que este é um exemplo excêntrico que dificilmente será encontrado na vida real, considere o padrão ouro na teoria e na prática estatística: três padrões normais variáveis aleatórias . Agora, suponha que a densidade de suas articulações não seja que é a densidade normal padrão (como seria o caso se fossem variáveis aleatórias normais padrão mutuamente independentes ), mas simX,Y,Z fX,Y,Z(x,y,z) ϕ(x)ϕ(y)ϕ(z) ϕ(⋅) X,Y,Z
fonte
Na modelagem causal, esse tipo de coisa é possível nos casos em que existem múltiplos efeitos causais, e eles se cancelam exatamente em um sentido probabilístico. Portanto, é possível que cause , mas também cause , e , e esses últimos eventos têm um efeito causal negativo em , de uma maneira que cancela exatamente o efeito causal direto de .A B C D E B A
Nos modelos de causalidade probabilística, esse tipo de situação patológica é geralmente descartada por uma suposição de fidelidade , que assume que as relações probabilísticas são "fiéis" à estrutura causal subjacente e não se cancelam. Um manual básico sobre causalidade probabilística e a suposição de fidelidade pode ser encontrado na Enciclopédia de Filosofia de Stanford .
fonte
Exemplos podem ser criados à vontade, porque a causa diz respeito à verdade, mas a probabilidade diz respeito à lógica.
Suponha que seja um fato que e e causem . Agora considere as informações fornecidas . EntãoA∈A B∈B A=x B=y I≡“A∈A and B∈B” prob(A=a,B=b|I)=prob(A=a|I)prob(B=b|I)=1|A||B|
porque independência é a distribuição máxima de entropia consistente com .I
Os eventos são logicamente independentes, dados , apesar de serem causalmente dependentes.I
Não faz sentido falar que os eventos são logicamente independentes na ausência de quaisquer premissas: a lógica requer premissas. As causas, por outro lado, existem independentemente de nossas suposições.
As idéias sobre causalidade, é claro, são elas mesmas lógicas e bastante distintas das causas em si. Portanto, se procurarmos comparar idéias causais sobre eventos com idéias lógicas sobre esses eventos, na verdade elas são a mesma coisa. Por exemplo, se tivermos , depoisI≡“A∈A and B∈B and A=x causes B=y” prob(A=a,B=b|I)=prob(B=b|A=a,I)prob(A=a|I)=1|A|{δby1|B|A=xA≠x
então a lógica expressa a idéia causal.
fonte