Podemos escrever o teorema de Bayes como p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} onde é o posterior, é a distribuição condicional e é o
Podemos escrever o teorema de Bayes como p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} onde é o posterior, é a distribuição condicional e é o
Estou tentando planejar um plano de estudo para aprender MLE. Para fazer isso, estou tentando descobrir qual é o nível mínimo de cálculo necessário para entender o MLE. É suficiente entender o básico do cálculo (ou seja, encontrar o mínimo e o máximo de funções) para entender o...
Minhas perguntas reais estão nos dois últimos parágrafos, mas para motivá-las: Se estou tentando estimar a média de uma variável aleatória que segue uma distribuição Normal com uma variação conhecida, li que colocar um uniforme antes da média resulta em uma distribuição posterior proporcional à...
De acordo com o teorema de Bayes, . Mas, de acordo com meu texto econométrico, ele diz que . Por que é assim? Não entendo por que é ignorado.P ( θ | y ) ∝ P ( y | θ ) P ( θ ) P ( θ ) P ( y )P( y| θ)P( θ ) = P( θ | y) P( y)P(y|θ)P(θ)=P(θ|y)P(y)P(y|\theta)P(\theta) = P(\theta|y)P(y)P( θ | y) ∝ P( y|...
Em geral, maximizamos uma função L(θ;x1,…,xn)=∏i=1nf(xi∣θ)eu(θ;x1,…,xn)=∏Eu=1nf(xEu∣θ) L(\theta; x_1, \ldots, x_n) = \prod_{i=1}^n f(x_i \mid \theta) onde fff é a função de densidade de probabilidade se a distribuição subjacente for contínua e uma função de massa de probabilidade (com soma em...
Propriedade de invariância do MLE: se é o MLE de , então para qualquer função , o MLE de é . θ^θ^\hat{\theta}θθ\thetaf( θ )f(θ)f(\theta)f( θ )f(θ)f(\theta)f( θ^)f(θ^)f(\hat{\theta}) Além disso, deve ser uma função individual.fff O livro diz: "Por exemplo, para estimar , o quadrado de uma média...
Eu estava lendo o livro The Identification Problem In Econometrics, de Franklin M. Fisher, e fiquei confuso com a parte que ele demonstra a identificação visualizando a função de probabilidade. O problema pode ser simplificado como: Para uma regressão , em que , e são os parâmetros. Suponha...
Quais são as estimativas dos parâmetros fórmula para a inclinação normal? Se você puder, a derivação via MLE ou Mom também seria ótima. obrigado Edit . Eu tenho um conjunto de dados para o qual eu posso ver visualmente por gráficos que está ligeiramente inclinado para a esquerda. Quero estimar a...
Encontrei um problema no livro didático para estimar a média. O problema do livro é o seguinte: Suponha que pontos de dados, , ,. . . , x_N , foram gerados por um pdf gaussiano unidimensional de média desconhecida, mas de variação conhecida. Derivar a estimativa ML da média.x 1 x 2 x...
Considere um modelo AR ( ) (assumindo média zero por simplicidade):ppp xt= φ1 1xt - 1+ … + Φpxt - p+ εtxt=φ1 1xt-1 1+…+φpxt-p+εt x_t = \varphi_1 x_{t-1} + \dotsc + \varphi_p x_{t-p} + \varepsilon_t O estimador OLS (equivalente ao estimador condicional de verossimilhança máxima) para é conhecido...
Estou usando o filtro Kalman de uma maneira muito padrão. O sistema é representado pela equação de estado e a equação de observação .xt+1=Fxt+vt+1xt+1=Fxt+vt+1x_{t+1}=Fx_{t}+v_{t+1}yt=Hxt+Azt+wtyt=Hxt+Azt+wty_{t}=Hx_{t}+Az_{t}+w_{t} Os livros didáticos ensinam que, depois de aplicar o filtro...
O mgcvpacote para Rpossui duas funções para ajustar as interações do produto tensorial: te()e ti(). Entendo a divisão básica do trabalho entre os dois (ajustando uma interação não linear versus decompondo essa interação em efeitos principais e uma interação). O que não entendo é o porquê te(x1,...
Estou lendo o artigo da teoria de Doug Bates no pacote lme4 de R para entender melhor os detalhes dos modelos mistos e me deparei com um resultado intrigante que eu gostaria de entender melhor sobre o uso da máxima verossimilhança restrita (REML) para estimar a variação . Na seção 3.3, no critério...
O título diz tudo. Entendo que os mínimos quadrados e a máxima verossimilhança fornecerão o mesmo resultado para os coeficientes de regressão se os erros do modelo forem normalmente distribuídos. Mas, o que acontece se os erros não forem normalmente distribuídos? Por que os dois métodos não são...
A questão é a seguinte: Uma amostra aleatória de n valores é coletada de uma distribuição binomial negativa com o parâmetro k = 3. Encontre o estimador de probabilidade máxima do parâmetro π. Encontre uma fórmula assintótica para o erro padrão deste estimador. Explique por que a...
Recentemente, tomei consciência de que métodos "sem probabilidade" são analisados na literatura. No entanto, não sei ao certo o que significa um método de inferência ou otimização sem probabilidade . No aprendizado de máquina, o objetivo geralmente é maximizar a probabilidade de alguns...
Já tive cursos suficientes de estatística durante meus anos de escola e na universidade. Eu tenho um entendimento justo dos conceitos, como IC, valores de p, interpretação da significância estatística, testes múltiplos, correlação, regressão linear simples (com mínimos quadrados) (modelos lineares...
Estou dando uma aula sobre integração de funções de várias variáveis e cálculo vetorial neste semestre. A turma é composta pela maioria dos cursos de economia e engenharia, com um punhado de pessoas de matemática e física também. Eu dei essa aula no semestre passado e descobri que muitas das...
Entendo que, se eu tenho dois modelos A e B e A está aninhado em B, dados alguns dados, posso ajustar os parâmetros de A e B usando o MLE e aplicar o teste de razão de verossimilhança generalizada de log. Em particular, a distribuição do teste deve ser com n graus de liberdade, onde n é a diferença...
Minha pergunta surge da leitura de "Estimating a Dirichlet Distribution" de Minka , que declara o seguinte sem provas no contexto de derivar um estimador de probabilidade máxima para uma distribuição de Dirichlet com base em observações de vetores aleatórios: Como sempre com a família...