Diferença entre erro padrão e desvio padrão

96

Estou lutando para entender a diferença entre o erro padrão e o desvio padrão. Como eles são diferentes e por que você precisa medir o erro padrão?

Louis Xie
fonte
7
Um comentário rápido, não uma resposta, já que dois úteis já estão presentes: o desvio padrão é uma propriedade da (distribuição das) variáveis ​​aleatórias. O erro padrão está relacionado à medição em uma amostra específica. Os dois podem ficar confusos ao esbater a distinção entre o universo e sua amostra.
Francesco
Possivelmente de interesse: stats.stackexchange.com/questions/15505/…
Macro

Respostas:

31

σ/nσ

Michael Chernick
fonte
3
Re: "... consistente, o que significa que o erro padrão diminui para 0" - isso não é verdade. Você se lembra desta discussão: stats.stackexchange.com/questions/31036/… ?
Macro
1
Sim, é claro que me lembro da discussão das exceções incomuns e estava pensando nisso quando respondi à pergunta. Mas a questão era sobre erros padrão e, em termos simplistas, as boas estimativas de parâmetros são consistentes e seus erros padrão tendem a 0, como no caso da média da amostra.
22812 Michael Chernick
4
Concordo com o seu comentário - o erro padrão da média da amostra vai para 0 e a média da amostra é consistente. Mas o erro padrão que chega a zero não é uma consequência (ou equivalente) do fato de ser consistente, e é o que diz a sua resposta.
Macro
3
@ Macro sim, a resposta poderia ser melhorada, que eu decidi fazer. Eu acho que é importante não ser muito técnico com os POs, pois qualificar tudo pode ser complicado e confuso. Mas a precisão técnica não deve ser sacrificada pela simplicidade. Então, acho que a maneira como resolvi isso na minha edição é a melhor maneira de fazer isso.
22812 Michael Chernick
9
Concordo que é importante não ser técnico, a menos que seja absolutamente necessário. Meu único comentário foi que, uma vez que você já optou por introduzir o conceito de consistência (um conceito técnico), não adianta caracterizá-lo incorretamente em nome de tornar a resposta mais fácil de entender. Eu acho que sua edição aborda meus comentários.
Macro
51

Aqui está uma resposta mais prática (e não matemática):

  • O SD (desvio padrão) quantifica a dispersão - quanto os valores variam um do outro.
  • O SEM (erro padrão da média) quantifica com que precisão você conhece a verdadeira média da população. Ele leva em consideração o valor do SD e o tamanho da amostra.
  • SD e SEM estão nas mesmas unidades - as unidades dos dados.
  • O SEM, por definição, é sempre menor que o SD.
  • O SEM fica menor à medida que suas amostras ficam maiores. Isso faz sentido, porque é provável que a média de uma amostra grande esteja mais próxima da média real da população do que a média de uma amostra pequena. Com uma amostra enorme, você saberá o valor da média com muita precisão, mesmo que os dados estejam muito dispersos.
  • O SD não muda previsivelmente à medida que você adquire mais dados. O SD que você calcula a partir de uma amostra é a melhor estimativa possível do SD da população em geral. À medida que você coleta mais dados, avalia o SD da população com mais precisão. Mas você não pode prever se o SD de uma amostra maior será maior ou menor que o SD de uma amostra pequena. (Isso é uma simplificação, não é bem verdade. Veja os comentários abaixo.)

Observe que os erros padrão podem ser calculados para quase qualquer parâmetro que você calcula a partir dos dados, não apenas a média. A frase "o erro padrão" é um pouco ambígua. Os pontos acima se referem apenas ao erro padrão da média.

(Do GraphPad Statistics Guide que escrevi.)

Harvey Motulsky
fonte
11
n100n.18n=2
4
@ whuber: Claro que você está certo. É a variação (SD ao quadrado) que não muda previsivelmente à medida que você adiciona mais dados. O SD aumentará um pouco à medida que o tamanho da amostra aumentar, especialmente quando você iniciar com amostras pequenas. Essa alteração é pequena se comparada à alteração no SEM, à medida que o tamanho da amostra muda.
Harvey Motulsky
@HarveyMotulsky: Por que o SD aumenta?
Andrew
Com amostras grandes, a variação da amostra será bastante próxima da variação da população, portanto, o SD da amostra estará próximo do SD da população. Com amostras menores, a variação da amostra será igual à variação da população em média, mas as discrepâncias serão maiores. Se simétricos como variações, serão assimétricos como SD. Exemplo: A variação da população é 100. Duas variações da amostra são 80 ou 120 (simétricas). O SD da amostra deve ser 10, mas será 8,94 ou 10,95. SDs média da amostra de uma distribuição simétrica em torno da variância da população, e a mia SD será baixa, com baixo N.
Harvey Motulsky
43

θx={x1,,xn}θθ^(x)θ^(x)xx~θ^(x~)θ^(x)θ^θ^(x)θ^

ocram
fonte
1
O erro padrão da estimativa é igual ao desvio padrão da variável estimada?
Yurii
6

(observe que estou focando no erro padrão da média, que acredito ser o questionador, mas você pode gerar um erro padrão para qualquer estatística de amostra)

O erro padrão está relacionado ao desvio padrão, mas eles não são a mesma coisa e o aumento do tamanho da amostra não os aproxima. Pelo contrário, torna-os mais afastados. O desvio padrão da amostra fica mais próximo do desvio padrão da população à medida que o tamanho da amostra aumenta, mas não o erro padrão.

Às vezes, a terminologia em torno disso é um pouco grossa para passar.

Quando você reúne uma amostra e calcula o desvio padrão dessa amostra, à medida que a amostra cresce em tamanho, a estimativa do desvio padrão se torna cada vez mais precisa. Parece da sua pergunta que era nisso que você estava pensando. Mas considere também que a média da amostra tende a estar mais próxima da média da população em média. Isso é fundamental para entender o erro padrão.

O erro padrão é sobre o que aconteceria se você obtivesse várias amostras de um determinado tamanho. Se você tirar uma amostra de 10, poderá obter uma estimativa da média. Depois, você tira outra amostra de 10 e nova estimativa média, e assim por diante. O desvio padrão das médias dessas amostras é o erro padrão. Dado que você fez sua pergunta, provavelmente poderá ver agora que, se o N for alto, o erro padrão será menor, porque será menos provável que as médias das amostras se desviem muito do valor real.

Para alguns, isso parece meio milagroso, pois você calculou isso a partir de uma amostra. Portanto, o que você pode fazer é iniciar um erro padrão por meio de simulação para demonstrar o relacionamento. Em R, seria assim:

# the size of a sample
n <- 10
# set true mean and standard deviation values
m <- 50
s <- 100

# now generate lots and lots of samples with mean m and standard deviation s
# and get the means of those samples. Save them in y.
y <- replicate( 10000, mean( rnorm(n, m, s) ) )
# standard deviation of those means
sd(y)
# calcuation of theoretical standard error
s / sqrt(n)

Você verá que esses dois últimos comandos geram o mesmo número (aproximadamente). Você pode variar os valores de n, m e se eles sempre saem bem próximos um do outro.

John
fonte
Achei isso realmente útil, obrigado por postar. Seria justo, então, descrever o erro padrão como "o desvio padrão da distribuição da amostra"? A distribuição de amostragem é y no seu bloco de código acima? Isso é o que me confundiu, combinando os parâmetros da amostra sd e a média com os parâmetros da distribuição da amostra.
Doug Fir
1
Se você alterar sua redação para especificar meios de amostra para este caso, sim.
John