Me deparei com a transformação de estabilização de variância enquanto lia o método Kaggle Essay Eval . Eles usam uma transformação de estabilização de variância para transformar valores kappa antes de obter sua média e depois transformá-los de volta. Mesmo depois de ler o wiki sobre transformações de estabilização de variância que não consigo entender, por que realmente estabilizamos variâncias? Que benefício ganhamos com isso?
variance
mathematical-statistics
Pushpendre
fonte
fonte
Respostas:
Aqui está uma resposta: geralmente, a maneira mais eficiente de conduzir inferência estatística é quando seus dados são iid. Se não estiverem, você está obtendo diferentes quantidades de informações a partir de diferentes observações, e isso é menos eficiente. Outra maneira de ver isso é dizer que, se você puder adicionar informações extras à sua inferência (ou seja, a forma funcional da variação, por meio da transformação de estabilização da variação), você geralmente melhorará a precisão de suas estimativas, pelo menos assintoticamente. Em amostras muito pequenas, incomodar-se com a modelagem de variação pode aumentar seu pequeno viés de amostra. Este é um tipo de argumento econométrico do tipo GMM: se você adicionar momentos adicionais, sua variação assintótica não poderá aumentar; e seu viés finito de amostra aumenta com os graus de liberdade super identificados.
Outra resposta foi dada pelo cardeal: se você tem uma variação desconhecida em sua expressão de variação assintótica, a convergência para a distribuição assintótica será mais lenta, e você teria que estimar essa variação de alguma forma. A pré-rotação dos dados ou das estatísticas geralmente ajuda a melhorar a precisão das aproximações assintóticas.
fonte