Quais áreas da estatística foram substancialmente revolucionadas nos últimos 50 anos? Por exemplo, há cerca de 40 anos, Akaike e seus colegas revolucionaram a área de discriminação de modelos estatísticos. Cerca de 10 anos atrás, Hyndman e seus colegas revolucionaram a área de suavização exponencial. Cerca de XX anos atrás, ...
Como posso continuar a lista, com anos e nomes, por favor? Por estatística, quero dizer todos os quatro tipos do discurso presidencial de Bartholomew em 1995, as estatísticas maiores e menores de Chambers juntas, como destaque no recente discurso presidencial de Hand sobre 'Estatísticas modernas' e assim por diante - qualquer coisa profissionalmente relevante.
Respostas:
O trabalho de Efron no Bootstrap vem à mente.
fonte
A aplicação de estatísticas bayesianas com métodos de Monte Carlo.
fonte
Métodos de ensemble como reforço, ensacamento, etc. são outro candidato em potencial.
fonte
Em 1960, a maioria das pessoas que fazia estatística calculava com uma calculadora manual de quatro funções ou uma régua de cálculo ou manualmente; computadores mainframe estavam apenas começando a executar alguns programas em Algol e Fortran; dispositivos gráficos de saída eram raros e brutos. Devido a essas limitações, a análise bayesiana foi considerada formidável e difícil devido aos cálculos necessários. Os bancos de dados foram gerenciados em cartões perfurados e unidades de fita de computador limitadas a alguns megabytes. A educação estatística se concentrou inicialmente em aprender fórmulas para testes t e ANOVA. A prática estatística geralmente não foi além de tais testes rotineiros de hipóteses (embora algumas mentes brilhantes tivessem começado a explorar computadores para uma análise mais profunda, como exemplificado pelo livro de Mosteller & Wallace nos jornais federalistas, por exemplo).
Recordei essa história conhecida como um lembrete de que todas as estatísticas sofreram uma revolução devido ao aumento e à disseminação do poder da computação durante este último meio século, uma revolução que tornou possível quase todas as outras inovações em estatística durante esse período (com a exceção notável dos métodos EDA de lápis e papel de Tukey, como Thylacoleo já observou).
fonte
A ideia verdadeiramente estranha de John Tukey: análise exploratória de dados. http://en.wikipedia.org/wiki/Exploratory_data_analysis
fonte
Modelos lineares generalizados devido aos recentemente falecidos John Nelder e Robert Wedderburn.
fonte
fonte
Houve uma grande discussão sobre metaoptimização chamada " Idéias Mais Influentes 1995 - 2005 ", que contém uma grande coleção de idéias.
O que mencionei aqui, e repetirei aqui, é a "revolução" no conceito de múltiplas comparações, especificamente a mudança do uso dos métodos FWE para FDR, para testar muitas hipóteses (como em micro array ou fMRI e assim por diante)
Aqui está um dos primeiros artigos que introduziram essa noção na comunidade científica: Benjamini, Yoav; Hochberg, Yosef (1995). "Controlando a taxa de falsas descobertas: uma abordagem prática e poderosa para vários testes". Jornal da Sociedade Estatística Real
fonte
Análise de sobrevivência dos riscos proporcionais de Cox: http://en.wikipedia.org/wiki/Cox_proportional_hazards_model
fonte
A abordagem Box-Jenkins para modelagem de séries temporais: modelos ARIMA etc.
http://en.wikipedia.org/wiki/Box-Jenkins
fonte
A criação deste site ;-)
fonte