Por este site psicometria Eu li que
[A] uma variação de nível profundo é um conceito mais fundamental que o desvio padrão.
O site realmente não explica mais por que a variação é mais fundamental que o desvio padrão, mas me lembrou que li algumas coisas semelhantes neste site.
Por exemplo, neste comentário, @ kjetil-b-halvorsen escreve que "o desvio padrão é bom para interpretação, elaboração de relatórios. Para desenvolver a teoria, a variação é melhor".
Sinto que essas afirmações estão vinculadas, mas realmente não as entendo. Entendo que a raiz quadrada da variância da amostra não é um estimador imparcial do desvio padrão da população, mas certamente deve haver mais do que isso.
Talvez o termo "fundamental" seja muito vago para este site. Nesse caso, talvez possamos operacionalizar minha pergunta perguntando se a variação é mais importante que o desvio padrão do ponto de vista do desenvolvimento da teoria estatística. Porque porque não?
fonte
Respostas:
As respostas de Robert e Bey dão parte da história (ou seja, momentos tendem a ser considerados propriedades básicas de distribuições, e o desvio padrão convencional é definido em termos do segundo momento central e não o contrário), mas até que ponto esses as coisas são realmente fundamentais depende em parte do que queremos dizer com o termo.
Não haveria problema insuperável, por exemplo, se nossas convenções seguissem o contrário - não há nada que nos impeça de definir convencionalmente alguma outra sequência de quantidades no lugar dos momentos habituais, digamos para (observe que se encaixa tanto na sequência do momento quanto na presente como o primeiro termo) e depois definindo os momentos - e todo tipo de cálculo em relação a momentos - em termos deles. Note-se que estas quantidades são todos medidos nas unidades originais, o que é uma vantagem em relação aos momentos (que estão em poderes -ésimo das unidades originais, e assim mais difícil de interpretar). Isso tornaria o desvio padrão da população a quantidade e a variação definidas em termos dela.E[(X−μ)p]1/p p=1,2,3,... μ p
No entanto, isso tornaria quantidades como a função geradora de momento (ou algum equivalente relacionado às novas quantidades definidas acima) um pouco menos "naturais", o que tornaria as coisas um pouco mais estranhas (mas algumas convenções são um pouco assim). Existem algumas propriedades convenientes do MGF que não seriam tão convenientes para o elenco.
Mais básico, a meu ver (mas relacionado a isso), é que existem várias propriedades básicas de variação que são mais convenientes quando escritas como propriedades de variação do que quando escritas como propriedades de desvio padrão (por exemplo, a variação de somas de valores independentes). variáveis aleatórias é a soma das variações).
Essa aditividade é uma propriedade que não é compartilhada por outras medidas de dispersão e tem várias consequências importantes.
[Existem relações semelhantes entre os outros cumulantes, portanto é um sentido em que podemos querer definir as coisas em relação aos momentos de maneira mais geral.]
Todas essas razões são, sem dúvida, convenções ou conveniências, mas, até certo ponto, é uma questão de ponto de vista (por exemplo, de alguns pontos de vista, os momentos são quantidades muito importantes, de outros, não são tão importantes). Pode ser que o bit "em um nível profundo" tenha a intenção de implicar nada mais do que o de "no desenvolvimento da teoria" de kjetil.
Concordo com o argumento de kjetil que você levantou na sua pergunta; até certo ponto, essa resposta é apenas uma discussão ondulatória sobre ela.
fonte
A variação é definida pelo primeiro e segundo momentos de uma distribuição. Em contraste, o desvio padrão é mais como uma "norma" do que um momento. Momentos são propriedades fundamentais de uma distribuição, enquanto normas são apenas maneiras de fazer uma distinção.
fonte
A variação é mais fundamental que o desvio padrão, porque o desvio padrão é definido como 'a raiz quadrada da variação', por exemplo, sua definição depende completamente da variação.
A variação, por outro lado, é definida - de maneira completamente independente - como a "expectativa da diferença ao quadrado entre uma amostra e a média".
fonte
fonte