Estou lendo O Livro do Por, da Judea Pearl, e está ficando sob minha pele 1 . Especificamente, parece-me que ele está criticando incondicionalmente as estatísticas "clássicas" , argumentando que as estatísticas nunca são capazes de investigar relações causais, que nunca estão interessadas em relações causais e que as estatísticas "se tornaram um modelo empresa de redução de dados oculta ". Estatística se torna uma palavra s feia em seu livro.
Por exemplo:
Os estatísticos ficaram imensamente confusos sobre quais variáveis devem ou não ser controladas; portanto, a prática padrão tem sido controlar tudo o que se pode medir. [...] É um procedimento conveniente e simples de seguir, mas é um desperdício e cheio de erros. Uma conquista importante da Revolução Causal foi pôr fim a essa confusão.
Ao mesmo tempo, estatísticos subestimam muito o controle, no sentido de que são relutantes em falar sobre causalidade.
No entanto, os modelos causais estão nas estatísticas como, para sempre. Quer dizer, um modelo de regressão pode ser essencialmente utilizado um modelo causal, uma vez que são essencialmente assumindo que uma variável é a causa e a outra é o efeito (daí correlação é abordagem diferente a partir de modelos de regressão) e testando se esta relação causal explica os padrões observados .
Outra citação:
Não é de admirar que os estatísticos em particular achem difícil esse entendimento [do problema de Monty Hall]. Eles estão acostumados a, como RA Fisher (1922) colocou, "a redução de dados" e a ignorar o processo de geração de dados.
Isso me lembra a resposta que Andrew Gelman escreveu ao famoso desenho animado xkcd sobre bayesianos e frequentistas: "Ainda assim, acho que o desenho animado como um todo é injusto, pois compara um bayesiano sensível a um estatístico frequentista que segue cegamente os conselhos de livros didáticos rasos. . "
A quantidade de deturpações da palavra s que, como eu a percebo, existe no livro da Judea Pearls me fez pensar se a inferência causal (que até agora eu percebia como uma maneira útil e interessante de organizar e testar uma hipótese científica 2 ) é questionável.
Perguntas: você acha que a Judea Pearl está deturpando estatísticas e, se sim, por quê? Apenas para fazer a inferência causal parecer maior do que é? Você acha que a inferência causal é uma revolução com um grande R que realmente muda todo o nosso pensamento?
Editar:
As perguntas acima são minha principal questão, mas, como são, sem dúvida, opinativas, responda a estas perguntas concretas (1) qual é o significado da "Revolução de Causação"? (2) como é diferente das estatísticas "ortodoxas"?
1. Também porque ele é um cara tão modesto.
2. Quero dizer no sentido científico, não estatístico.
Edição : Andrew Gelman escreveu este post no blog Judea Pearls e acho que ele fez um trabalho muito melhor explicando meus problemas com este livro do que eu. Aqui estão duas citações:
Na página 66 do livro, Pearl e Mackenzie escrevem que as estatísticas “se tornaram uma empresa de redução de dados cega ao modelo”. Ei! Que diabos você está falando?? Sou estatístico, faço estatística há 30 anos, trabalhando em áreas que vão da política à toxicologia. "Redução de dados cega ao modelo"? Isso é besteira. Usamos modelos o tempo todo.
E um outro:
Veja. Eu sei sobre o dilema do pluralista. Por um lado, Pearl acredita que seus métodos são melhores do que tudo o que veio antes. Bem. Para ele e para muitos outros, são as melhores ferramentas disponíveis para estudar a inferência causal. Ao mesmo tempo, como pluralista ou estudante de história científica, percebemos que existem muitas maneiras de assar um bolo. É um desafio mostrar respeito às abordagens que você realmente não trabalha para você e, em algum momento, a única maneira de fazer isso é dar um passo atrás e perceber que pessoas reais usam esses métodos para resolver problemas reais. Por exemplo, acho que tomar decisões usando valores-p é uma ideia terrível e logicamente incoerente que levou a muitos desastres científicos; ao mesmo tempo, muitos cientistas conseguem usar valores-p como ferramentas para o aprendizado. Eu reconheço isso. Similarmente, Eu recomendaria que Pearl reconhecesse que o aparato de estatística, modelagem de regressão hierárquica, interações, pós-classificação, aprendizado de máquina, etc., resolve problemas reais em inferência causal. Nossos métodos, como o de Pearl, também podem atrapalhar - GIGO! - e talvez Pearl esteja certo de que seria melhor mudarmos para a abordagem dele. Mas acho que não ajuda quando ele dá declarações imprecisas sobre o que fazemos.
Respostas:
Concordo plenamente que o tom de Pearl é arrogante, e sua caracterização de "estatísticos" é simplista e monolítica. Além disso, não acho a escrita dele particularmente clara.
No entanto, acho que ele tem razão.
O raciocínio causal não fazia parte do meu treinamento formal (MSc): o mais próximo que cheguei do tópico foi um curso eletivo em design experimental, ou seja, qualquer reivindicação de causalidade exigia que eu controlasse fisicamente o ambiente. O livro de Pearl, Causality, foi minha primeira exposição a uma refutação dessa idéia. Obviamente, não posso falar por todos os estatísticos e currículos, mas, da minha própria perspectiva, subscrevo a observação de Pearl de que o raciocínio causal não é uma prioridade na estatística.
Essa também é uma crença que eu mantive depois de me formar em estatística em 2010.
No entanto, é profundamente incorreto. Quando você controla um efeito comum (chamado "colisor" no livro), pode introduzir o viés de seleção. Essa percepção foi bastante surpreendente para mim e realmente me convenceu da utilidade de representar minhas hipóteses causais como gráficos.
EDIT: Pediram-me para elaborar o viés de seleção. Este tópico é bastante sutil, eu recomendo ler o edX MOOC nos diagramas causais , uma introdução muito agradável aos gráficos, que possui um capítulo dedicado ao viés de seleção.
Para um exemplo de brinquedo, parafraseando este artigo citado no livro: Considere as variáveis A = atratividade, B = beleza, C = competência. Suponha que B e C não sejam causalmente relacionados na população em geral (ou seja, beleza não causa competência, competência não causa beleza e beleza e competência não compartilham uma causa comum). Suponha também que qualquer um de B ou C seja suficiente para ser atraente, ou seja, A é um colisor. O condicionamento em A cria uma associação espúria entre B e C.
Um exemplo mais sério é o "paradoxo do peso ao nascer", segundo o qual o fumo de uma mãe (S) durante a gravidez parece diminuir a mortalidade (M) do bebê, se o bebê estiver abaixo do peso (U). A explicação proposta é que os defeitos congênitos (D) também causam baixo peso ao nascer e também contribuem para a mortalidade. O diagrama causal correspondente é {S -> U, D -> U, U -> M, S -> M, D -> M} no qual U é um colisor; o condicionamento introduz a associação espúria. A intuição por trás disso é que, se a mãe é fumante, é provável que o baixo peso ao nascer seja devido a um defeito.
fonte
Sua própria pergunta reflete o que Pearl está dizendo!
Não, uma regressão linear é um modelo estatístico, não um modelo causal. Vamos supor que são variáveis aleatórias com uma distribuição normal multivariada. Então você pode estimar corretamente as expectativas lineares , , , etc. usando regressão linear, mas há nada aqui diz se alguma dessas quantidades é causal.Y,X,Z E[Y∣X] E[X∣Y] E[Y∣X,Z] E[Z∣Y,X]
Uma equação estrutural linear, por outro lado, é um modelo causal. Mas o primeiro passo é entender a diferença entre suposições estatísticas (restrições na distribuição de probabilidade conjunta observada) e suposições causais (restrições no modelo causal).
Não, acho que não, porque vemos esses equívocos diariamente. É claro que Pearl está fazendo algumas generalizações, já que alguns estatísticos trabalham com inferência causal (Don Rubin foi pioneiro na promoção de possíveis resultados ... eu também sou um estatístico!). Mas ele está certo ao dizer que a maior parte da educação estatística tradicional evita a causalidade, mesmo para definir formalmente o que é um efeito causal.
Para deixar isso claro, se pedirmos a um estatístico / economista com apenas um treinamento regular para definir matematicamente qual é o valor esperado de se intervirmos em , ele provavelmente escreverá (veja um exemplo aqui) ! Mas isso é uma quantidade observacional, não é assim que você define um efeito causal! Em outros termos, atualmente, um aluno com apenas um curso de estatística tradicional não possui nem a capacidade de definir matematicamente essa quantidade ( ou ) se você não estiver familiarizado com o teoria estrutural / contrafactual da causalidade !Y X E[Y|X] E [ Y x ] E [ Y | d o ( x ) ]E[Yx] E[Y|do(x)]
A citação que você traz do livro também é um ótimo exemplo. Você não encontrará nos livros tradicionais de estatística uma definição correta do que é um fator de confusão, nem orientação sobre quando você deve (ou não) se ajustar a uma covariável em estudos observacionais. Em geral, você vê “critérios correlacionais”, como “se a covariável está associada ao tratamento e ao resultado, você deve ajustá-lo”. Um dos exemplos mais notáveis dessa confusão aparece no Paradox de Simpson - quando confrontado com duas estimativas de sinais opostos, qual deles você deve usar, o ajustado ou não ajustado? A resposta, é claro, depende do modelo causal.
E o que Pearl quer dizer quando diz que essa pergunta foi encerrada? No caso de um simples ajuste via regressão, ele está se referindo ao critério de backdoor (veja mais aqui) . E para identificação em geral - além do simples ajuste - ele significa que agora temos algoritmos completos para identificação de efeitos causais para qualquer DAG semi-markoviano.
Vale a pena fazer outra observação aqui. Mesmo em estudos experimentais - em que as estatísticas tradicionais certamente fizeram muito trabalho importante no planejamento de experimentos! - no final do dia, você ainda precisa de um modelo causal . As experiências podem sofrer de falta de conformidade, perda de acompanhamento, viés de seleção ... também, na maioria das vezes você não deseja limitar os resultados de suas experiências à população específica que analisou, deseja generalizar sua resultados experimentais para uma população maior / diferente. Aqui, novamente, alguém pode perguntar: para o que você deve se ajustar? Os dados e o conhecimento substantivo que você tem são suficientes para permitir tal extrapolação? Todos esses são conceitos causais; portanto, você precisa de uma linguagem para expressar formalmente suposições causais e verificar se elas são suficientes para permitir que você faça o que deseja!
Em suma, esses conceitos errôneos são generalizados em estatística e econometria, existem vários exemplos aqui em Validação cruzada, como:
E muitos mais.
Considerando o estado atual das coisas em muitas ciências, quanto avançamos e quão rápido as coisas estão mudando, e quanto ainda podemos fazer, eu diria que isso é realmente uma revolução.
PS : Pearl sugeriu duas de suas postagens no blog de causalidade da UCLA que serão de interesse para esta discussão. Você pode encontrar as postagens aqui e aqui .
PS 2 : Como janeiro mencionou em sua nova edição, Andrew Gelman tem um novo post em seu blog. Além do debate no blog de Gelman, Pearl também respondeu no twitter (abaixo):
fonte
Sou fã dos escritos da Judéia e li Causalidade (amor) e Livro do Porquê (como).
Eu não acho que a Judéia esteja atacando as estatísticas. É difícil ouvir críticas. Mas o que podemos dizer sobre qualquer pessoa ou campo que não recebe críticas? Eles tendem da grandeza à complacência. Você deve perguntar: a crítica é correta, necessária, útil e propõe alternativas? A resposta para todos esses é um enfático "Sim".
Corrigir? Revi e colaborei em algumas dezenas de artigos, principalmente análises de dados observacionais, e raramente sinto que exista uma discussão suficiente sobre causalidade. A abordagem de "ajuste" envolve a seleção de variáveis porque elas foram escolhidas a dedo no DD como sendo "úteis" "relevantes" "importantes" ou outras bobagens.1
Necessário? A mídia está repleta de declarações aparentemente contraditórias sobre os efeitos na saúde de grandes exposições. A inconsistência com a análise dos dados estagnou as evidências, o que nos deixa sem políticas úteis, procedimentos de saúde e recomendações para uma vida melhor.
Útil? O comentário da Judéia é pertinente e específico o suficiente para dar uma pausa. É diretamente relevante para qualquer análise de dados que qualquer estatístico ou especialista em dados possa encontrar.
Propõe alternativas? Sim, a Judéia de fato discute a possibilidade de métodos estatísticos avançados e até como eles se reduzem a estruturas estatísticas conhecidas (como o Modelagem de Equações Estruturais) e sua conexão com modelos de regressão). Tudo se resume a exigir uma declaração explícita do conhecimento do conteúdo que orientou a abordagem de modelagem.
A Judéia não está simplesmente sugerindo que definamos todos os métodos estatísticos (por exemplo, regressão). Em vez disso, ele está dizendo que precisamos adotar alguma teoria causal para justificar modelos.
fonte
Como não li este livro, só posso julgar a citação específica que você fornecer. No entanto, mesmo com base nisso, concordo com você que isso parece extremamente injusto para a profissão de estatística. Na verdade, acho que os estatísticos sempre fizeram um trabalho notavelmente bom ao enfatizar a distinção entre associações estatísticas (correlação, etc.) e causalidade, e advertir contra a fusão das duas. De fato, na minha experiência, os estatísticos geralmente têm sido a principal força profissional que luta contra a confusão onipresente entre causa e correlação. É totalmente falso (e praticamente calunioso) afirmar que os estatísticos são "... relutantes em falar sobre causalidade". Eu posso ver por que você está irritado lendo bobagens arrogantes como essa.
Eu diria que é razoavelmente comum para não estatísticosque usam modelos estatísticos para compreender pouco a relação entre associação estatística e causalidade. Alguns têm um bom treinamento científico de outros campos; nesse caso, eles também podem estar bem cientes do problema, mas certamente existem algumas pessoas que usam modelos estatísticos que têm um entendimento fraco desses problemas. Isso é verdade em muitos campos científicos aplicados, onde os profissionais têm treinamento básico em estatística, mas não o aprendem em um nível profundo. Nesses casos, muitas vezes são estatísticos profissionais que alertam outros pesquisadores para as distinções entre esses conceitos e seu relacionamento adequado. Os estatísticos são frequentemente os principais projetistas de ECRs e outros experimentos envolvendo controles usados para isolar a causalidade. Eles são frequentemente chamados a explicar protocolos como randomização, placebos, e outros protocolos usados para tentar romper relacionamentos com possíveis variáveis de confusão. É verdade que os estatísticos às vezes controlam mais variáveis do que o estritamente necessário, mas isso raramente leva a erros (pelo menos na minha experiência). Eu acho que a maioria dos estatísticos está ciente da diferença entrevariáveis de confusão e variáveis de colisão quando fazem análise de regressão com vista a inferências causais, e mesmo que nem sempre estejam construindo modelos perfeitos, a noção de que de alguma forma evitam a consideração de causalidade é simplesmente ridícula.
Acho que a Judea Pearl fez uma contribuição muito valiosa para as estatísticas com seu trabalho sobre causalidade, e sou grato a ele por essa maravilhosa contribuição. Ele construiu e examinou alguns formalismos muito úteis que ajudam a isolar as relações causais, e seu trabalho se tornou um grampo de uma boa educação estatística. Eu li o livro Causalityenquanto eu era estudante de graduação, e está na minha estante e nas prateleiras de muitos outros estatísticos. Muito desse formalismo ecoa coisas que são conhecidas intuitivamente pelos estatísticos desde antes de serem formalizadas em um sistema algébrico, mas é muito valioso em qualquer caso e vai além do óbvio. (Na verdade, acho que no futuro veremos uma fusão da operação "do" com a álgebra de probabilidade ocorrendo em um nível axiomático, e isso provavelmente acabará se tornando o núcleo da teoria das probabilidades. Gostaria muito de ver isso incorporado diretamente à educação estatística. , para que você aprenda sobre modelos causais e a operação "do" ao aprender sobre medidas de probabilidade.)
Uma última coisa a ter em mente aqui é que existem muitas aplicações de estatísticas em que o objetivo é preditivo , em que o praticante não está buscando inferir a causalidade. Esses tipos de aplicativos são extremamente comuns em estatística e, nesses casos, é importante não se restringir a relacionamentos causais. Isso é verdade na maioria dos aplicativos de estatística em finanças, RH, modelagem de força de trabalho e muitos outros campos. Não se deve subestimar a quantidade de contextos em que não se pode ou não se deve procurar controlar variáveis.
Atualização: Percebo que minha resposta não está de acordo com a fornecida por Carlos . Talvez discordemos sobre o que constitui "um estatístico / economista com apenas um treinamento regular". Qualquer pessoa que eu chamaria de "estatístico" geralmente possui pelo menos uma educação de pós-graduação e, geralmente, possui treinamento / experiência profissional substancial. (Por exemplo, na Austrália, o requisito para se tornar um "Estatístico Credenciado" com o nosso organismo profissional nacional requer um mínimo de quatro anos de experiência após um diploma de honra ou seis anos de experiência após um diploma de bacharel regular.) De qualquer forma, um estudante estudar estatística não é estatístico .
Percebo que, como evidência da suposta falta de entendimento da causalidade pelos estatísticos, a resposta de Carlos aponta para várias perguntas no CV.SE que questionam a causalidade na regressão. Em todos esses casos, a pergunta é feita por alguém que é obviamente novato (não estatístico) e as respostas dadas por Carlos e outros (que refletem a explicação correta) são respostas altamente votadas. De fato, em vários casos, Carlos fez um relato detalhado da causalidade e suas respostas são as mais votadas. Isso certamente prova que os estatísticos entendem a causalidade .
Alguns outros pôsteres apontaram que a análise de causalidade geralmente não é incluída no currículo de estatística. Isso é verdade e é uma grande pena, mas a maioria dos estatísticos profissionais não são recém-formados e aprenderam muito além do que está incluído em um programa de mestrado padrão. Novamente, a esse respeito, parece que tenho uma visão mais alta do nível médio de conhecimento dos estatísticos do que outros pôsteres.
fonte
Aqui está um exemplo que eu criei onde um modelo de regressão linear falha em ser causal. Digamos a priori que um medicamento foi tomado no tempo 0 ( t = 0 ) e que não afeta a taxa de ataques cardíacos em t = 1 . Ataques cardíacos em t = 1 afetam ataques cardíacos em t = 2 (ou seja, danos anteriores tornam o coração mais suscetível a danos). A sobrevivência em t = 3 depende apenas se as pessoas tiveram ou não um ataque cardíaco em t = 2 - o ataque cardíaco em t = 1 afetaria realisticamente a sobrevivência em t = 3 , mas não teremos uma flecha, pelo bem de simplicidade.
Aqui está a lenda:
Aqui está o verdadeiro gráfico causal:
Vamos fingir que não sabemos que os ataques cardíacos em t = 1 são independentes de tomar o medicamento em t = 0; portanto, construímos um modelo de regressão linear simples para estimar o efeito do medicamento no ataque cardíaco em t = 0 . Aqui, nosso preditor seria Drug t = 0 e nossa variável de resultado seria Heart Attack t = 1 . Os únicos dados que temos são pessoas que sobrevivem em t = 3 ; portanto, executaremos nossa regressão nesses dados.
Aqui está o intervalo credível bayesiano de 95% para o coeficiente de droga t = 0 :
Grande parte da probabilidade que podemos ver é maior que 0, então parece que há um efeito! No entanto, sabemos a priori que não há efeito. A matemática da causalidade, desenvolvida por Judea Pearl e outros, facilita muito ver que haverá um viés neste exemplo (devido ao condicionamento de um descendente de um colisor). O trabalho da Judéia implica que, nessa situação, devemos usar o conjunto de dados completo (ou seja, não olhe para as pessoas que sobreviveram apenas), o que removerá os caminhos tendenciosos:
Aqui está o intervalo de 95% de credibilidade ao analisar o conjunto de dados completo (ou seja, não condicionar aqueles que sobreviveram).
.
É densamente centrado em 0, o que essencialmente não mostra nenhuma associação.
Nos exemplos da vida real, as coisas podem não ser tão simples. Pode haver muito mais variáveis que podem causar viés sistemático (confusão, viés de seleção etc.). O que ajustar nas análises foi matematizado por Pearl; os algoritmos podem sugerir qual variável ajustar ou até nos informar quando o ajuste não é suficiente para remover o viés sistemático. Com essa teoria formal estabelecida, não precisamos gastar muito tempo discutindo sobre o que ajustar e o que não ajustar; podemos chegar rapidamente a conclusões sobre se nossos resultados são bons ou não. Podemos projetar melhor nossos experimentos, podemos analisar dados observacionais mais facilmente.
Aqui está um curso disponível gratuitamente on-line sobre Causal DAGs, de Miguel Hernàn. Há vários estudos de caso da vida real em que professores / cientistas / estatísticos chegaram a conclusões opostas sobre a questão em questão. Alguns deles podem parecer paradoxos. No entanto, você pode resolvê-los facilmente através do critério de separação d e backdoor da Judea Pearl .
Para referência, veja o código para o processo de geração de dados e o código para intervalos credíveis mostrados acima:
fonte
Dois artigos, o segundo clássico, que ajudam (eu acho) lançam luzes adicionais sobre os pontos da Judéia e esse tópico de maneira mais geral. Isso vem de alguém que usou o SEM (que é correlação e regressão) repetidamente e ressoa com suas críticas:
https://www.sciencedirect.com/science/article/pii/S0022103111001466
http://psycnet.apa.org/record/1973-20037-001
Essencialmente, os trabalhos descrevem por que os modelos correlacionais (regressão) normalmente não podem ser tomados como implicando uma forte inferência causal. Qualquer padrão de associação pode se encaixar em uma determinada matriz de covariância (ou seja, não especificação de direção e / ou relacionamento entre as variáveis). Daí a necessidade de coisas como um desenho experimental, proposições contrafatuais etc. Isso se aplica mesmo quando alguém tem uma estrutura temporal em seus dados, onde a causa putativa ocorre no tempo antes do efeito putativo.
fonte
"... já que estamos essencialmente assumindo que uma variável é a causa e outra é o efeito (portanto, a correlação é uma abordagem diferente da modelagem de regressão) ..."
Definitivamente, a modelagem de regressão NÃO faz essa suposição.
"... e testando se essa relação causal explica os padrões observados."
Se você está assumindo causalidade e validando-a contra observações, está fazendo a modelagem SEM ou o que Pearl chamaria de modelagem SCM. Se você deseja ou não chamar essa parte do domínio de estatísticas, é discutível. Mas acho que a maioria não chamaria de estatísticas clássicas.
Em vez de despejar estatísticas em geral, acredito que Pearl está apenas criticando a reticência do estatístico para abordar a semântica causal. Ele considera isso um problema sério por causa do que Carl Sagan chama de fenômeno "entrar e sair", onde você abandona um estudo que diz "o consumo de carne 'fortemente associado' ao aumento da libido, p <0,05" e, em seguida, evita saber muito bem, os dois resultados serão causalmente ligados na mente do público.
fonte