Alguém poderia me explicar em detalhes sobre a estimativa de máxima verossimilhança (MLE) em termos leigos? Gostaria de conhecer o conceito subjacente antes de entrar em derivação ou equação
um método de estimativa de parâmetros de um modelo estatístico, escolhendo o valor do parâmetro que otimiza a probabilidade de observação da amostra especificada.
Alguém poderia me explicar em detalhes sobre a estimativa de máxima verossimilhança (MLE) em termos leigos? Gostaria de conhecer o conceito subjacente antes de entrar em derivação ou equação
Li no resumo deste artigo que: "O procedimento de máxima verossimilhança (ML) do Hartley aud Rao é modificado adaptando uma transformação de Patterson e Thompson que particiona a probabilidade renderizar a normalidade em duas partes, sendo uma livre dos efeitos fixos. A maximização dessa parte...
Para um estudo de simulação, eu tenho que gerar variáveis aleatórias que mostram uma correlação pré-definida (população) com uma variável existente YYY. Examinei os Rpacotes copulae CDVineque podem produzir distribuições multivariadas aleatórias com uma determinada estrutura de dependência. No...
Estimadores de máxima verossimilhança (MLE) são assintoticamente eficientes; vemos o resultado prático, na medida em que eles geralmente se saem melhor do que as estimativas do método dos momentos (MoM) (quando diferem), mesmo em amostras pequenas Aqui "melhor que" significa no sentido de...
Vejo esses termos sendo usados e continuo confundindo-os. Existe uma explicação simples das diferenças entre
Existem vários tópicos neste site para recomendações de livros sobre estatísticas introdutórias e aprendizado de máquina, mas estou procurando um texto sobre estatísticas avançadas, incluindo, em ordem de prioridade: probabilidade máxima, modelos lineares generalizados, análise de componentes...
Ok, essa é uma pergunta bastante básica, mas estou um pouco confusa. Na minha tese, escrevo: Os erros padrão podem ser encontrados calculando o inverso da raiz quadrada dos elementos diagonais da matriz (observada) de Fisher Information:
Por favor, explique-me a diferença entre a estimativa bayesiana e a estimativa de máxima
Esta pergunta me intrigou por um longo tempo. Entendo o uso de 'log' para maximizar a probabilidade, por isso não estou perguntando sobre 'log'. Minha pergunta é: como maximizar a probabilidade do log é equivalente a minimizar a "probabilidade do log negativo" (NLL), por que inventamos esse NLL?...
Gostaria de saber se faz diferença na interpretação se apenas as variáveis dependentes, dependentes e independentes ou apenas as independentes são transformadas em log. Considere o caso de log(DV) = Intercept + B1*IV + Error Eu posso interpretar o IV como o aumento percentual, mas como isso...
Estou curioso sobre a natureza de Σ−1Σ−1\Sigma^{-1} . Alguém pode dizer algo intuitivo sobre "O que Σ−1Σ−1\Sigma^{-1} diz sobre dados?" Editar: Obrigado pelas respostas Depois de fazer alguns ótimos cursos, gostaria de acrescentar alguns pontos: É uma medida de informação, ou seja,...
O exemplo de Stein mostra que a estimativa de máxima verossimilhança de nnn variáveis normalmente distribuídas com médias μ1,…,μnμ1,…,μn\mu_1,\ldots,\mu_n e variâncias 111 é inadmissível (sob uma função de perda quadrada) se n≥3n≥3n\ge 3 . Para uma prova clara, consulte o primeiro capítulo de...
Esta pergunta vem à mente há mais de um mês. A edição de fevereiro de 2015 da Amstat News contém um artigo do professor Mark van der Laan, de Berkeley, que censura as pessoas por usarem modelos inexatos. Ele afirma que, usando modelos, a estatística é então uma arte e não uma ciência. Segundo ele,...
Qual é a principal diferença entre a estimativa de máxima verossimilhança (MLE) e a estimativa de mínimos quadrados (LSE)? Por que não podemos usar o MLE para prever valores de em regressão linear e vice-versa?yyy Qualquer ajuda sobre este tópico será muito
Numericamente derivar a MLE s de GLMM é difícil e, na prática, eu sei, não devemos usar a otimização de força bruta (por exemplo, usando optimem uma maneira simples). Mas, para meu próprio objetivo educacional, quero experimentá-lo para garantir a compreensão correta do modelo (veja o código...
Eu li esta página: http://neuralnetworksanddeeplearning.com/chap3.html e disse que a camada de saída sigmóide com entropia cruzada é bastante semelhante à camada de saída softmax com probabilidade logarítmica. o que acontece se eu usar sigmoid com probabilidade de log ou softmax com entropia...
Vou explicar meu problema com um exemplo. Suponha que você queira prever a renda de um indivíduo, com alguns atributos: {Idade, Sexo, País, Região, Cidade}. Você tem um conjunto de dados de treinamento como esse train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2,...
Suponha que tenhamos uma variável aleatória . Se fosse o parâmetro true, a função de verossimilhança deveria ser maximizada e a derivada igual a zero. Esse é o princípio básico por trás do estimador de probabilidade máxima.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Pelo que entendi, as...
Ouvi falar da probabilidade empírica de Owen, mas até recentemente não prestava atenção até que me deparei com isso em um artigo de interesse ( Mengersen et al. 2012 ). Em meus esforços para entendê-lo, observei que a probabilidade dos dados observados é representada como , onde e...
Eu tenho uma confusão sobre estimadores tendenciosos de máxima verossimilhança (ML). A matemática de todo o conceito é bastante clara para mim, mas não consigo descobrir o raciocínio intuitivo por trás dele. Dado um determinado conjunto de dados que possui amostras de uma distribuição, que é uma...