Fiz uma regressão com 4 variáveis, e todas são estatisticamente significativas, com valores de T e (digo porque parece irrelevante incluir os decimais), que são muito altos e claramente significativos. Mas então o é apenas 0,2224. Estou interpretando mal os valores t aqui para significar algo que eles não são? Minha primeira reação ao ver os valores t foi que o seria bastante alto, mas talvez esse seja um alto ?
17
Respostas:
Ost -Valores e R2 são utilizados para julgar coisas muito diferentes. Os t -Valores são usados para avaliar a accurary da sua estimativa do βi 's, mas R2 mede a quantidade de variação na sua variável de resposta explicada pela sua co-variáveis. Suponha que você esteja estimando um modelo de regressão com n observações,
ondeϵi∼i.i.dN(0,σ2) , i=1,...,n .
Valorest grandes (em valor absoluto) levam você a rejeitar a hipótese nula de que βi=0 . Isso significa que você pode ter certeza de ter estimado corretamente o sinal do coeficiente. Também se |t| > 4 e você tem n>5 , então 0 não está em um intervalo de confiança de 99% para o coeficiente. O valor t para um coeficiente βi é a diferença entre a estimativa βi^ e 0 normalizada pelo erro padrão se{βi^} .
que é simplesmente a estimativa dividida por uma medida de sua variabilidade. Se você tem um conjunto de dados grande o suficiente, você sempre terá estatisticamente significativa (grande)t -Valores. Isso não significa necessariamente que suas covariáveis explicam grande parte da variação na variável de resposta.
Como mencionado @Stat,R2 mede a quantidade de variação na sua variável de resposta explicado por as variáveis dependentes. Para saber mais sobre R2 , ir para a wikipedia . No seu caso, parece que você tem um grande conjunto de dados suficientes para estimar com precisão o βi 's, mas seus co-variáveis fazer um mau trabalho de explicar e \ ou prever os valores de resposta.
fonte
Para dizer a mesma coisa que caburke, mas de maneira mais simples, você está muito confiante de que a resposta média causada por suas variáveis não é zero. Mas há muitas outras coisas que você não tem na regressão que causam a resposta.
fonte
Pode ser que, embora seus preditores tendam linearmente em termos de sua variável de resposta (a inclinação é significativamente diferente de zero), o que torna os valores t significativos, mas o R ao quadrado é baixo porque os erros são grandes, o que significa que a variabilidade em seus dados são grandes e, portanto, seu modelo de regressão não é adequado (as previsões não são tão precisas)?
Apenas meus 2 centavos.
Talvez esta publicação possa ajudar: http://blog.minitab.com/blog/adventures-in-statistics/how-to-interpret-a-regression-model-with-low-r-squared-and-low-p- valores
fonte
Várias respostas dadas estão próximas, mas ainda estão erradas.
"Os valores t são usados para julgar a precisão de sua estimativa dos βi" é o que mais me preocupa.
O valor T é meramente uma indicação da probabilidade de ocorrência aleatória. Grande significa improvável. Pequeno significa muito provável. Positivo e Negativo não importam para a interpretação da probabilidade.
"R2 mede a quantidade de variação em sua variável de resposta explicada por suas covariáveis" está correta.
(Eu teria comentado, mas ainda não estou autorizado por esta plataforma.)
fonte
A única maneira de lidar com um pequeno R ao quadrado, verifique o seguinte:
Quantas covariáveis você usou para a estimativa do seu modelo? Se mais de 1 como no seu caso, lide com o problema da multicolinearidade das covariáveis ou, simplesmente, execute a regressão novamente e desta vez sem a constante que é conhecida como beta zero.
No entanto, se o problema persistir, faça uma regressão passo a passo e selecione o modelo com um R alto ao quadrado. Mas o que eu não posso recomendar, porque gera viés nas covariáveis
fonte