Apesar dos esforços importantes, mas cheios de "pegadinha", de indivíduos para revelar as práticas de periódicos predatórios , uma ameaça maior e mais fundamental aparece nas sombras da pesquisa em ciências sociais ( embora certamente haja vários problemas que os pesquisadores precisam resolver ). Para ir direto ao ponto, de acordo com uma visão, podemos não ser capazes de confiar nos coeficientes de correlação derivados de amostras menores que 250 .
Seria difícil encontrar um teste mais confiável para inferir a presença, direção e força da associação entre as medidas nas ciências sociais do que o coeficiente de correlação confiável. No entanto, não seria difícil encontrar relatórios revisados por pares fazendo fortes afirmações sobre a relação entre dois constructos com base em coeficientes de correlação calculados a partir de dados com menos de 250 casos.
Dada a atual crise de replicação enfrentada pelas ciências sociais (veja o segundo link acima), como devemos ver este relatório sobre a estabilização dos coeficientes de correlação apenas em grandes amostras (pelo menos por alguns padrões de campo das ciências sociais)? É outra brecha no muro da pesquisa em ciências sociais revisada por pares ou é uma questão relativamente trivial que foi exagerada em sua apresentação?
Como provavelmente não existe uma única resposta correta para essa pergunta, espero gerar um tópico em que recursos sobre essa questão possam ser compartilhados, ponderados e debatidos (educadamente e respeitosamente, é claro).
fonte
Respostas:
Adicionando intervalos de confiança para os cerca de verdadeiros coeficientes de correlação seria um pequeno (e muito simples) primeiro passo na direção certa. Sua largura imediatamente dá uma impressão sobre a precisão da correlação de sua amostra e, ao mesmo tempo, permite ao escritor e também ao público testar hipóteses úteis . O que sempre me intrigava ao conversar com estatísticos das ciências sociais era que um coeficiente de correlação absoluto da amostra acima de (ou algum outro limite) era considerado significativo. Ao mesmo tempo, eles estavam testando a hipótese de trabalhoL = 0,3 ρ ≠ 0 | p | > L ρ L - Lρ L = 0,3 p ≠ 0 . Isso é inconseqüente. Por que um coeficiente de correlação populacional muito pequeno seria subitamente considerado significativo? A hipótese de trabalho "correta" seria . Ter um intervalo de confiança para na mão, hipóteses como este pode facilmente ser testado: basta verificar que o intervalo situa-se inteiramente acima (ou abaixo ) e você saber se você pode reivindicar uma associação estatística "substancial", mesmo no população.| p | >L ρ L −L
É claro que apenas adicionar um intervalo de confiança e usar testes significativos não resolverá muitos problemas (como projetos de amostragem ruins, consideração omitida de fatores de confusão etc.). Mas é basicamente de graça. Eu acho que até o SPSS é capaz de calculá-los!
fonte
Como observa Michael M , a confiabilidade das correlações relatadas - ou de qualquer outra estimativa - pode ser avaliada usando intervalos de confiança. Até certo ponto, é isso. Os ICs serão muito estreitos se os modelos forem selecionados após a coleta de dados, o que eu acredito que aconteça cerca de 95% das vezes nas ciências sociais (o que honestamente afirmo que é um palpite completo).
O remédio é duplo:
Estamos falando de uma " crise de replicabilidade ". Portanto, replicações com falha nos informam que o efeito original provavelmente era apenas ruído aleatório. Precisamos fazer (e financiar, redigir, enviar e aceitar) mais réplicas. Os estudos de replicação estão lentamente ganhando respeitabilidade, e isso é uma coisa boa.
O segundo remédio é, obviamente, a meta-análise . Se tivermos muitas correlações relatadas de dados semelhantes, mesmo que cada uma delas tenha um baixo , podemos agrupar as informações e aprender alguma coisa. Idealmente, seremos capazes de detectar o viés de publicação no processo.n
fonte