Usando lm para teste de proporção de 2 amostras

12

Eu tenho usado modelos lineares para realizar testes de proporção de 2 amostras por um tempo, mas percebi que isso pode não estar completamente correto. Parece que o uso de um modelo linear generalizado com um vínculo de família binomial + identidade fornece exatamente os resultados do teste de proporção de 2 amostras não agrupadas. No entanto, o uso de um modelo linear (ou glm com família gaussiana) fornece um resultado ligeiramente diferente. Estou racionalizando que isso pode ser devido a como R resolve o glm para famílias binomiais vs. gaussianas, mas poderia haver outra causa?

## prop.test gives pooled 2-sample proportion result
## glm w/ binomial family gives unpooled 2-sample proportion result
## lm and glm w/ gaussian family give unknown result

library(dplyr)
library(broom)
set.seed(12345)

## set up dataframe -------------------------
n_A <- 5000
n_B <- 5000

outcome <- rbinom(
  n = n_A + n_B,
  size = 1,
  prob = 0.5
)
treatment <- c(
  rep("A", n_A),
  rep("B", n_B)
)

df <- tbl_df(data.frame(outcome = outcome, treatment = treatment))


## by hand, 2-sample prop tests ---------------------------------------------
p_A <- sum(df$outcome[df$treatment == "A"])/n_A
p_B <- sum(df$outcome[df$treatment == "B"])/n_B

p_pooled <- sum(df$outcome)/(n_A + n_B)
z_pooled <- (p_B - p_A) / sqrt( p_pooled * (1 - p_pooled) * (1/n_A + 1/n_B) )
pvalue_pooled <- 2*(1-pnorm(abs(z_pooled)))

z_unpooled <- (p_B - p_A) / sqrt( (p_A * (1 - p_A))/n_A + (p_B * (1 - p_B))/n_B )
pvalue_unpooled <- 2*(1-pnorm(abs(z_unpooled)))


## using prop.test --------------------------------------
res_prop_test <- tidy(prop.test(
  x = c(sum(df$outcome[df$treatment == "A"]), 
        sum(df$outcome[df$treatment == "B"])),
  n = c(n_A, n_B),
  correct = FALSE
))
res_prop_test # same as pvalue_pooled
all.equal(res_prop_test$p.value, pvalue_pooled)
# [1] TRUE


# using glm with identity link -----------------------------------
res_glm_binomial <- df %>%
  do(tidy(glm(outcome ~ treatment, family = binomial(link = "identity")))) %>%
  filter(term == "treatmentB")
res_glm_binomial # same as p_unpooled
all.equal(res_glm_binomial$p.value, pvalue_unpooled)
# [1] TRUE


## glm and lm gaussian --------------------------------

res_glm <- df %>%
  do(tidy(glm(outcome ~ treatment))) %>%
  filter(term == "treatmentB")
res_glm 
all.equal(res_glm$p.value, pvalue_unpooled)
all.equal(res_glm$p.value, pvalue_pooled)

res_lm <- df %>%
  do(tidy(lm(outcome ~ treatment))) %>% 
  filter(term == "treatmentB")
res_lm
all.equal(res_lm$p.value, pvalue_unpooled)
all.equal(res_lm$p.value, pvalue_pooled)

all.equal(res_lm$p.value, res_glm$p.value)
# [1] TRUE
Hilary Parker
fonte

Respostas:

8

Não tem a ver com a maneira como eles resolvem os problemas de otimização que correspondem ao ajuste dos modelos, mas com os problemas reais de otimização que os modelos apresentam.

Especificamente, em amostras grandes, você pode considerá-lo efetivamente como comparando dois problemas de mínimos quadrados ponderados

lmVar(p^)=Var(X/n)=p(1-p)/n

* pelo menos em algumas situações, embora não necessariamente em uma comparação direta de proporções

Glen_b -Reinstate Monica
fonte
0

Em termos de cálculo, compare o erro padrão do coeficiente de tratamento B para lm vs. binomial glm. Você tem a fórmula para o erro padrão do coeficiente de tratamento B no binômio glm (o denominador de z_unpooled). O erro padrão do coeficiente de tratamento B no padrão lm é (SE_lm):

    test = lm(outcome ~ treatment, data = df)
    treat_B =  as.numeric(df$treatment == "B")
    SE_lm = sqrt( sum(test$residuals^2)/(n_A+n_B-2) / 
              sum((treat_B - mean(treat_B))^2))

σ2nUMA+nB-2nUMA=nB

jac
fonte