Por que estabilizamos a variação?

15

Me deparei com a transformação de estabilização de variância enquanto lia o método Kaggle Essay Eval . Eles usam uma transformação de estabilização de variância para transformar valores kappa antes de obter sua média e depois transformá-los de volta. Mesmo depois de ler o wiki sobre transformações de estabilização de variância que não consigo entender, por que realmente estabilizamos variâncias? Que benefício ganhamos com isso?

Pushpendre
fonte
6
Geralmente, a intenção é tornar a variação (assintótica) independente do parâmetro de interesse. Isso é particularmente importante na inferência, onde precisamos conhecer a distribuição de referência para calcular quantidades de interesse relacionadas.
cardinal

Respostas:

13

Aqui está uma resposta: geralmente, a maneira mais eficiente de conduzir inferência estatística é quando seus dados são iid. Se não estiverem, você está obtendo diferentes quantidades de informações a partir de diferentes observações, e isso é menos eficiente. Outra maneira de ver isso é dizer que, se você puder adicionar informações extras à sua inferência (ou seja, a forma funcional da variação, por meio da transformação de estabilização da variação), você geralmente melhorará a precisão de suas estimativas, pelo menos assintoticamente. Em amostras muito pequenas, incomodar-se com a modelagem de variação pode aumentar seu pequeno viés de amostra. Este é um tipo de argumento econométrico do tipo GMM: se você adicionar momentos adicionais, sua variação assintótica não poderá aumentar; e seu viés finito de amostra aumenta com os graus de liberdade super identificados.

Outra resposta foi dada pelo cardeal: se você tem uma variação desconhecida em sua expressão de variação assintótica, a convergência para a distribuição assintótica será mais lenta, e você teria que estimar essa variação de alguma forma. A pré-rotação dos dados ou das estatísticas geralmente ajuda a melhorar a precisão das aproximações assintóticas.

StasK
fonte
Acho que entendo a primeira frase da sua resposta e ela me atrai intuitivamente. Existe um nome para essa observação que eu poderia pesquisar no Google? Eu gostaria de encontrar algumas experiências de pensamento ou exemplos que mostram o que acontece quando você tem uma quantidade diferente de informação em diferentes observações e como isso é ineficiente
Pushpendre
O texto de Korn & Graubard (1999) sobre estatísticas de pesquisa discute isso.
Stask
Mas aqui a transformação é usada para calcular uma média por . Eu realmente não vejo o ponto. Para mim, esse seria o caminho a seguir para a estimativa do intervalo de confiança, mas, para a estimativa por pontos, isso apenas introduz um viés. f1(1nif(κi))
Elvis
@PushpendreRastogi, você pode querer ler o artigo da Wikipedia sobre essa mesma transformação. Foi introduzido por Fisher para estabilizar a variância de um coeficiente de correlação empírica (entre variáveis ​​normais). Nesse caso, a variável transformada será aproximadamente normal, com a variação dependendo apenas do tamanho da amostra e não do coeficiente de correlação desconhecido (é por isso que "estabiliza" a variação).
Elvis
@Elvis, dei o exemplo de correlação no artigo da wikipedia sobre estatística central ( en.wikipedia.org/wiki/Pivotal_statistic ). [Como diabos você forneceu o link legal no comentário? Tentei a href, parecia feia].
Stask