Em certo sentido, não existe estatística sem "parâmetros" e "modelos". É uma rotulagem arbitrária, até certo ponto, dependendo do que você reconhece como "modelo" ou "parâmetro". Parâmetros e modelos são basicamente formas de traduzir suposições e conhecimentos sobre o mundo real em um sistema matemático. Mas isso é verdade para qualquer algoritmo matemático. Você precisa, de alguma forma, converter seu problema do mundo real em qualquer estrutura matemática que pretenda usar para resolvê-lo.
Usar uma distribuição de probabilidade que foi atribuída de acordo com algum princípio é uma maneira de fazer essa conversão de maneira sistemática e transparente. Os melhores princípios que conheço são o princípio da entropia máxima (MaxEnt) e o princípio dos grupos de transformação (que eu acho que também poderia ser chamado de princípio de "invariância" ou "indiferença por problemas").
Uma vez atribuído, você pode usar a teoria das probabilidades bayesianas para manipular coerentemente essas probabilidades de "entrada" que contêm suas informações e suposições em probabilidades de "saída", que informam quanta incerteza está presente na análise em que você está interessado.
Algumas introduções da perspectiva Bayes / MaxEnt descritas acima podem ser encontradas aqui , aqui e aqui . Estes são baseados na interpretação da probabilidade como uma extensão da lógica dedutiva. Eles estão mais do lado teórico das coisas.
Como nota final final, recomendo esses métodos principalmente porque me parecem mais atraentes - não consigo pensar em uma boa razão teórica para abandonar os comportamentos normativos que estão por trás da lógica de Bayes / MaxEnt. É claro que você pode não ser tão compelido quanto eu, e posso pensar em alguns compromissos práticos sobre a viabilidade e as limitações de software. As estatísticas do "mundo real" geralmente podem ser sobre qual ideologia você está se aproximando (aproximadamente Bayes vs aproximadamente Máxima Verossimilhança vs aproximadamente Design) ou qual ideologia você entende e é capaz de explicar aos seus clientes.
Uma maneira bayesiana de introduzir e motivar modelos paramétricos é através do Exchangeability e do Teorema de Representação de De Finetti. Há alguma discussão nesta pergunta:
O que há de tão legal no teorema da representação de Finetti?
Uma ótima introdução é dada no primeiro capítulo da Teoria da Estatística de Schervish . Toda a linguagem teórica da medida necessária para a discussão é apresentada em seu apêndice tour de force (com provas completas!). Aprendi muito com este livro e recomendo fortemente que você o compre.
Este artigo estuda a generalidade da construção bayesiana:
Sandra Fortini, Lucia Ladelli e Eugenio Regazzini
Sankhyā: The Indian Journal of Statistics, Série A (1961-2002)
Vol. 62, nº 1 (fevereiro de 2000), pp. 86-109
Está disponível para download aqui: http://sankhya.isical.ac.in/search/62a1/62a17092.pdf
fonte