Muitos fãs / jogadores de basquete acreditam que, após várias tacadas seguidas, é provável que a próxima tacada seja jogada. Isso às vezes é chamado de mão quente.
Começando (eu acho) com Gilovich, Mallone e Tversky (1985) , foi "mostrado" que isso era de fato uma falácia. Mesmo que várias fotos tenham sido executadas em sequência, a próxima foto não terá mais chances do que sua porcentagem média de fotos ditaria.
Miller e Sanjurjo (2015) argumentam que a mão quente realmente existe e pesquisadores anteriores simplesmente foram vítimas de uma falácia estatística bastante básica. O argumento deles é mais ou menos assim:
Jogue uma moeda quatro vezes. Calcule a probabilidade de H seguir H. Para dar alguns exemplos: HHTT teria probabilidade 1/2, HTHT teria probabilidade 0/2, TTHH teria probabilidade 0/1 1/1 e TTTT e TTTH seriam NA
O argumento final de Miller e Sanjurjo é que o valor esperado dessa probabilidade não é 0,5, mas ± 0,4. E o erro cometido por pesquisadores anteriores foi assumir incorretamente que o valor esperado dessa probabilidade é 0,5. Portanto, se, por exemplo, esses pesquisadores anteriores realizaram o experimento de troca de moedas acima e descobriram que a probabilidade média é de 0,497, eles concluíram incorretamente que não havia evidências de uma mão quente (não significativamente diferente de 0,5), quando na verdade havia muito forte evidência de mão quente (significativamente diferente de 0,4).
Minha pergunta é a seguinte: Miller e Sanjurjo estão corretos quando pesquisadores anteriores não conseguiram detectar a mão quente simplesmente por causa desse erro? Eu examinei apenas um ou dois trabalhos sobre o assunto, então queria obter alguma confirmação de alguém aqui que possa conhecer melhor essa literatura. Parece um erro surpreendentemente tolo persistir por três décadas ou mais.
fonte
Respostas:
(Esta resposta foi completamente reescrita para maior clareza e legibilidade em julho de 2017.)
Jogue uma moeda 100 vezes seguidas.
Se os lançamentos de moedas são iid, então "obviamente", em várias seqüências de 100 lançamentos de moedas,
Geramos um milhão de seqüências de 100 lançamentos de moedas e obtemos os dois resultados a seguir:
E assim concluímos que os lançamentos de moedas são de fato iid e não há evidência de mão quente. Foi o que GVT (1985) fez (mas com jogadas de basquete no lugar de lançamentos de moedas). E foi assim que eles concluíram que a mão quente não existe.
Punchline: Surpreendentemente, (1) e (2) estão incorretos. Se os lançamentos de moedas são iid, então deve ser aquele
A intuição (ou contra-intuição) envolvida é semelhante à de vários outros quebra-cabeças de probabilidade famosos: o problema de Monty Hall, o problema de dois meninos e o princípio da escolha restrita (na ponte do jogo de cartas). Essa resposta já é longa o suficiente e, portanto, vou pular a explicação dessa intuição.
E assim, os próprios resultados (I) e (II) obtidos por GVT (1985) são na verdade fortes evidências a favor da mão quente. Foi isso que Miller e Sanjurjo (2015) mostraram.
Análise adicional da Tabela 4 da GVT.
Muitos (por exemplo, @scerwin abaixo) expressaram - sem se preocupar em ler GVT (1985) - descrença de que qualquer "estatístico treinado jamais" fizesse uma média de médias nesse contexto.
Mas foi exatamente isso que a GVT (1985) fez na Tabela 4. Veja a Tabela 4, colunas 2-4 e 5-6, linha inferior. Eles acham que a média entre os 26 jogadores,
Mas se, em vez de tomar a média das médias (uma jogada considerada inacreditavelmente estúpida por alguns), refizermos a análise e agregamos os 26 jogadores (100 tiros para cada um, com algumas exceções), obtemos a seguinte tabela de médias ponderadas.
A tabela diz, por exemplo, que um total de 2.515 chutes foram feitos pelos 26 jogadores, dos quais 1.175 ou 46,72% foram feitos.
E das 400 ocorrências em que um jogador errou 3 seguidas, 161 ou 40,25% foram imediatamente seguidas por um acerto. E das 313 ocorrências em que um jogador acertou 3 em sequência, 179 ou 57,19% foram imediatamente seguidos por um acerto.
As médias ponderadas acima parecem ser fortes evidências a favor da mão quente.
Lembre-se de que o experimento de arremesso foi criado para que cada jogador estivesse arremessando de onde havia sido determinado que ele / ela poderia fazer aproximadamente 50% de seus arremessos.
(Nota: "Estranhamente", na Tabela 1, para uma análise muito semelhante à do jogo de Sixers, a GVT apresenta as médias ponderadas. Então, por que eles não fizeram o mesmo na Tabela 4? Meu palpite é que eles certamente calculou as médias ponderadas da Tabela 4 - os números que apresento acima, não gostaram do que viram e optaram por suprimi-los. Infelizmente, esse tipo de comportamento é par para o curso na academia.)
PS GVT (1985) A Tabela 4 contém vários erros. Vi pelo menos dois erros de arredondamento. E também para o jogador 10, os valores entre parênteses nas colunas 4 e 6 não somam um a menos que os da coluna 5 (ao contrário da nota na parte inferior). Entrei em contato com Gilovich (Tversky está morto e Vallone não tenho certeza), mas infelizmente ele não tem mais as seqüências originais de acertos e acertos. A tabela 4 é tudo o que temos.
fonte
(Aviso: não conheço esta literatura.) Parece-me que Miller e Sanjurjo têm uma crítica válida de uma medida estatística específica. Não sei se isso deve invalidar todo o trabalho anterior sobre o efeito da mão quente, pois eles se concentram apenas nessa medida em particular.
A medida é
fonte
Nenhum dos dois trabalhos é suficientemente claro no que diz respeito às suas aplicações de Estatística, portanto, nesta resposta, tentarei um esclarecimento.
Gilovich, Mallone e Tversky (1985) em seu Resumo definem o "efeito Mão Quente" da seguinte maneira:
onde, para compacidade, entende-se que o tiro em questão é aquele imediatamente após os acertos ou erros sequenciais. Essas são probabilidades condicionais teóricas (ou seja, constantes), não freqüências empíricas relativas condicionais.
Portanto, se houver um problema com Gilovich et al. artigo, não é a definição de Mão Quente, não é a formulação da hipótese nula, não é a seleção da estatística a ser usada: é a validade dos valores críticos usados para executar os testes ( e, portanto, da suposição distributiva implícita), se é que a distribuição finita de pequenas amostras (sob a hipótese nula) é visivelmente não centrada em zero e também assimétrica.
Nesses casos, o que geralmente se faz é obter por simulação valores críticos especiais para realizar o teste (lembre-se, por exemplo, dos valores críticos especiais para o teste Dickey-Fuller para uma raiz unitária). Não vi essa abordagem no artigo de Miller-Sanjurjo, em vez disso, eles realizam "ajuste de tendência média" e descobrem que, após esse ajuste, a conclusão do teste é revertida. Não tenho certeza se este é o caminho a percorrer.
fonte
Na minha opinião, Miller e Sanjurjo simplesmente calcularam incorretamente as frequências relativas na Tabela 1. Sua tabela é mostrada abaixo com duas novas colunas adicionadas, que contam o número de subsequências HH e HT que ocorrem dentro de cada sequência de 4 lançamentos de moedas. Para obter a probabilidade condicional desejada p (H | H), é necessário somar essas contagens N (HH) e N (HT) e depois dividir como mostrado abaixo. Isso resulta em p (H | H) = 0,5, conforme o esperado. Por alguma razão, Miller e Sanjurjo primeiro calcularam a frequência relativa de cada sequência e depois calcularam a média das seqüências. Isso está errado.
fonte
Em qualquer sequência observada, a última condicional é "ausente" no sentido de que não há valor posteriormente. Os autores lidam com isso simplesmente desconsiderando os casos em que isso acontece, dizendo que eles são indefinidos. Se a série for curta, essa escolha terá um impacto óbvio nos cálculos. A Figura 1 é uma boa ilustração dessa idéia.
fonte
Vou alterar um comentário que fiz acima para uma resposta e reivindicar a resposta para a pergunta original é que os documentos originais estão corretos. Os autores do artigo de 2015 descartam seqüências que devem ser logicamente incluídas em suas análises, como descrevo no comentário, e, portanto, introduzem um viés que apóia suas reivindicações. O mundo funciona como deveria.
Adendo em resposta ao comentário: Examinamos a tabela 1 no documento. Vemos que estamos lançando 4 valores da última coluna; portanto, para obter a diferença esperada, calculamos a média de apenas 12 das 16 seqüências. Se olharmos para essas probabilidades como frequências e dissermos, para a primeira linha TTTT, qual é a frequência na qual uma cabeça segue uma cabeça, então logicamente isso sempre acontece, e devemos colocar um 1 no p (H, H ), não um traço. Fazemos isso nas outras três seqüências que jogamos fora e concluímos que o valor esperado da diferença é 0, e não-33. Não podemos simplesmente jogar dados assim, quando há uma interpretação lógica clara dos dados.
Observe que, para fazer desaparecer a deriva, precisamos calcular as probabilidades corretamente, o que não é feito no artigo. As probabilidades na tabela são reivindicadas como sendo a "probabilidade de uma cabeça seguir uma cauda, nesta dada sequência de quatro arremessos". E vemos que, para a linha TTTH, devemos acreditar que a probabilidade é de 1/3. Não é. Há quatro lançamentos na linha e um dos quatro lançamentos nessa linha é o evento "uma cabeça segue uma cauda". A probabilidade é de 1/4. Portanto, calcule as probabilidades corretamente e use todas as linhas para obter a resposta que é aceita há 30 anos.
fonte