Onde posso ler sobre a justificativa para o uso de distribuições de probabilidade paramétricas?

8

Gostaria de encontrar uma referência, de preferência gratuita na internet, onde possa ler sobre a justificativa teórica ou prática para o uso de distribuições de probabilidades paramétricas / analíticas.

Por distribuições paramétricas, quero dizer as nomeadas como Normal, Weibull, etc.

Neil McGuigan
fonte

Respostas:

1

Em certo sentido, não existe estatística sem "parâmetros" e "modelos". É uma rotulagem arbitrária, até certo ponto, dependendo do que você reconhece como "modelo" ou "parâmetro". Parâmetros e modelos são basicamente formas de traduzir suposições e conhecimentos sobre o mundo real em um sistema matemático. Mas isso é verdade para qualquer algoritmo matemático. Você precisa, de alguma forma, converter seu problema do mundo real em qualquer estrutura matemática que pretenda usar para resolvê-lo.

Usar uma distribuição de probabilidade que foi atribuída de acordo com algum princípio é uma maneira de fazer essa conversão de maneira sistemática e transparente. Os melhores princípios que conheço são o princípio da entropia máxima (MaxEnt) e o princípio dos grupos de transformação (que eu acho que também poderia ser chamado de princípio de "invariância" ou "indiferença por problemas").

Uma vez atribuído, você pode usar a teoria das probabilidades bayesianas para manipular coerentemente essas probabilidades de "entrada" que contêm suas informações e suposições em probabilidades de "saída", que informam quanta incerteza está presente na análise em que você está interessado.

Algumas introduções da perspectiva Bayes / MaxEnt descritas acima podem ser encontradas aqui , aqui e aqui . Estes são baseados na interpretação da probabilidade como uma extensão da lógica dedutiva. Eles estão mais do lado teórico das coisas.

Como nota final final, recomendo esses métodos principalmente porque me parecem mais atraentes - não consigo pensar em uma boa razão teórica para abandonar os comportamentos normativos que estão por trás da lógica de Bayes / MaxEnt. É claro que você pode não ser tão compelido quanto eu, e posso pensar em alguns compromissos práticos sobre a viabilidade e as limitações de software. As estatísticas do "mundo real" geralmente podem ser sobre qual ideologia você está se aproximando (aproximadamente Bayes vs aproximadamente Máxima Verossimilhança vs aproximadamente Design) ou qual ideologia você entende e é capaz de explicar aos seus clientes.

probabilityislogic
fonte
Não acho que sua primeira afirmação seja verdadeira. Temos estatísticas não paramétricas e reamostragem para resolver problemas.
Neil McGuigan
1
Este é um exemplo do que eu quis dizer com isso, dependendo do que você quer dizer quando diz "parâmetro" e "modelo". A estatística não paramétrica é mais baseada em formas flexíveis de funções de modelo, em vez de não ter "parâmetros". De fato, muitos métodos estatísticos não paramétricos são fortemente parametrizados. E a reamostragem é um método paramétrico baseado na expansão empírica das séries cdf e taylor - pelo menos o que obtive do artigo de Efrons sobre bootstrap e jacknife.
probabilityislogic
1

Uma maneira bayesiana de introduzir e motivar modelos paramétricos é através do Exchangeability e do Teorema de Representação de De Finetti. Há alguma discussão nesta pergunta:

O que há de tão legal no teorema da representação de Finetti?

Uma ótima introdução é dada no primeiro capítulo da Teoria da Estatística de Schervish . Toda a linguagem teórica da medida necessária para a discussão é apresentada em seu apêndice tour de force (com provas completas!). Aprendi muito com este livro e recomendo fortemente que você o compre.

Este artigo estuda a generalidade da construção bayesiana:

Sandra Fortini, Lucia Ladelli e Eugenio Regazzini

Sankhyā: The Indian Journal of Statistics, Série A (1961-2002)

Vol. 62, nº 1 (fevereiro de 2000), pp. 86-109

Está disponível para download aqui: http://sankhya.isical.ac.in/search/62a1/62a17092.pdf

zen
fonte