Como dividir o quadrado do r entre variáveis ​​preditivas na regressão múltipla?

16

Acabei de ler um artigo em que os autores realizaram uma regressão múltipla com dois preditores. O valor geral ao quadrado de r foi 0,65. Eles forneceram uma tabela que dividiu o quadrado do r entre os dois preditores. A tabela ficou assim:

            rsquared beta    df pvalue
whole model     0.65   NA  2, 9  0.008
predictor 1     0.38 1.01 1, 10  0.002
predictor 2     0.27 0.65 1, 10  0.030

Neste modelo, executado Rusando o mtcarsconjunto de dados, o valor geral do quadrado do r é 0,76.

summary(lm(mpg ~ drat + wt, mtcars))

Call:
lm(formula = mpg ~ drat + wt, data = mtcars)

Residuals:
    Min      1Q  Median      3Q     Max 
-5.4159 -2.0452  0.0136  1.7704  6.7466 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)   30.290      7.318   4.139 0.000274 ***
drat           1.442      1.459   0.989 0.330854    
wt            -4.783      0.797  -6.001 1.59e-06 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1

Residual standard error: 3.047 on 29 degrees of freedom
Multiple R-squared:  0.7609,    Adjusted R-squared:  0.7444 
F-statistic: 46.14 on 2 and 29 DF,  p-value: 9.761e-10

Como posso dividir o valor do quadrado r entre as duas variáveis ​​preditoras?

luciano
fonte
1
Este post fornece informações sobre como particionar o . R2
COOLSerdash
8
Esse comentário pode representar, de maneira breve e inadequada, o ponto de vista de que isso geralmente será inútil, se não perigoso. O sucesso ou o fracasso de um modelo é melhor considerado como resultado de um esforço da equipe pelos preditores (e suas formas funcionais particulares, termos de interação, etc., etc.) e deve ser julgado como tal. Naturalmente, a maioria de nós está interessada na importância relativa dos preditores e isso não faz sentido, mas as tentativas de quantificá-lo exatamente precisam ser acompanhadas de declarações completas das limitações técnicas e filosóficas de tal exercício.
Nick Cox

Respostas:

5

Você pode simplesmente obter as duas correlações separadas e quadrá-las ou executar dois modelos separados e obter o R ​​^ 2. Eles somarão apenas se os preditores forem ortogonais.

John
fonte
2
Por 'ortogonal', você quer dizer que os dois preditores não devem ser correlacionados?
luciano
3
Sim, sem correlação ... é a única maneira que eles somam ao total.
John
12

Além da resposta de John , você pode obter as correlações semi-parciais ao quadrado para cada preditor.

  • Preditores não correlacionados : se os preditores forem ortogonais (ou seja, não correlacionados), as correlações semi-parciais ao quadrado serão as mesmas que as correlações ao quadrado com ordem zero.
  • Preditores correlacionados: se os preditores estiverem correlacionados, a correlação semi-parcial ao quadrado representará a variação única explicada por um determinado preditor. Neste caso, a soma das correlações semi-parciais quadrados será inferior a . Essa variação explicada restante representará a variação explicada por mais de uma variável.R2

Se você está procurando uma função R existe spcor()nappcor pacote.

Você também pode considerar o tópico mais amplo da avaliação da importância das variáveis ​​na regressão múltipla (por exemplo, consulte esta página sobre o pacote relaimpo ).

Jeromy Anglim
fonte
3

Eu adicionei a tag à sua pergunta. Aqui está parte do seu wiki de tags :

R2p!p preditores de .

Grömping (2007, The American Statistician ) fornece uma visão geral e aponta a literatura no contexto da avaliação de importância variável.

S. Kolassa - Restabelecer Monica
fonte
y ~ a + by ~ b + ay ~ ay ~ a + by ~ by ~ a + by ~ b + a2p
R2aabR2y~1y~abR2y~by~a+b
2p2!
2p=q=0p(pq)(pq)qp preditores de ). Exceto pelo modelo trivial (q=0 0), você deseja comparar cada modelo com q preditores com outro q submodelos diferentes, cada um dos quais chegamos removendo um preditor, então temos q=1pq(pq)comparações. (Cada modelo aparece várias vezes aqui e, de fato, temos mais comparações do que2pmodelos.) E se tivermos interações, as coisas se tornam ainda mais complicadas.
S. Kolassa - Restabelece Monica