Resumo dos resultados de "Grande p, Pequeno n"

20

Alguém pode me indicar um documento de pesquisa sobre resultados "Grandes , Pequenos n "? Estou interessado na forma como este problema se manifesta em diferentes contextos de pesquisa, por exemplo, regressão, classificação, teste de Hotelling, etc .pn

shabbychef
fonte

Respostas:

12

Não conheço um único artigo, mas acho que o livro atual com a melhor pesquisa de métodos aplicáveis ​​à ainda é Friedman-Hastie-Tibshirani. É muito parcial para o encolhimento e o laço (sei de um conhecido comum que o Vapnik ficou chateado na primeira edição do livro), mas abrange quase todos os métodos comuns de encolhimento e mostra sua conexão com o Boosting. Falando em Boosting, a pesquisa da Buhlmann & Hothorn também mostra a conexão com o encolhimento.pn

Minha impressão é que, embora a classificação e a regressão possam ser analisadas usando o mesmo referencial teórico, o teste para dados de alta dimensão é diferente, pois não é usado em conjunto com os procedimentos de seleção de modelo, mas se concentra nas taxas de erro familiares. Não tenho tanta certeza sobre as melhores pesquisas lá. Brad Efron tem uma tonelada de papéis / pesquisas / livro em sua página . Leia todos eles e deixe-me saber o que eu realmente deveria ler ...

gappy
fonte
4

O que você quer dizer com resultado teórico "resultado"? ou resultados numéricos?

Eu gosto das críticas de Jianqing Fan, veja, por exemplo, este e este sobre classificação (muitas citações próprias).

Também não há papel de revisão que faça uma revisão rica na introdução; veja, por exemplo, este e este .

Robin Girard
fonte
0

O capítulo 18 de Hastie, Tibshirani e Friedman (12ª impressão / segunda edição, este capítulo não estava na primeira edição) é uma boa visão geral com alguns conjuntos de dados interessantes. Não é tão completo quanto o tratamento de materiais mais antigos, e na maioria das vezes eles têm que dar explicações um pouco heurísticas sobre por que certos algoritmos funcionam melhor que outros. Achei muito útil, juntamente com documentos de leitura, para coisas que você quer saber mais em profundidade.

Sheridan Grant
fonte