Nota: Estou postando uma pergunta de um ex-aluno meu incapaz de postar por conta própria por motivos técnicos.
Dada uma amostra iid de uma distribuição Weibull com pdf existe uma representação variável ausente útil e, portanto, um algoritmo EM (maximização de expectativa) associado que pode ser usado para encontrar o MLE de , em vez de usar diretamente otimização numérica?f k ( x ) = k x k - 1 e - x kf k ( x ) = ∫ Z g k ( x , z )
k
Respostas:
Eu acho que a resposta é sim, se eu entendi a pergunta corretamente.
Escreva . Em seguida, um tipo de iteração do algoritmo EM, começando com, por exemplo, , ék = 1zEu= xkEu k^= 1
E passo:z^Eu= xk^Eu
Etapa M:k^= n[ ∑( z^Eu- 1 ) logxEu]
Este é um caso especial (o caso sem censura e sem covariáveis) da iteração sugerida para modelos de riscos proporcionais de Weibull por Aitkin e Clayton (1980). Também pode ser encontrado na Seção 6.11 de Aitkin et al (1989).
Aitkin, M. e Clayton, D., 1980. O ajuste de distribuições exponenciais, Weibull e de valor extremo a dados complexos de sobrevivência censurada usando GLIM. Estatística Aplicada , pp.156-163.
Aitkin, M., Anderson, D., Francis, B. e Hinde, J., 1989. Statistical Modeling in GLIM . Imprensa da Universidade de Oxford. Nova york.
fonte
O Weibull MLE é apenas numericamente solucionável:
Deixe com .
1) Função de probabilidade :
função log-Probabilidade :
2) Problema no MLE : 3) Maximização por alunos: Segue-se:
Conectando na segunda condição de gradiente 0:λ∗
Essa equação é apenas numericamente solucionável, por exemplo, algoritmo de Newton-Raphson. pode então ser colocado em para concluir o estimador de ML para a distribuição Weibull.λ*β^∗ λ∗
fonte
Embora essa seja uma pergunta antiga, parece que há uma resposta em um artigo publicado aqui: http://home.iitk.ac.in/~kundu/interval-censoring-REVISED-2.pdf
fonte
Nesse caso, os estimadores MLE e EM são equivalentes, já que o estimador MLE é na verdade apenas um caso especial do estimador EM. (Estou assumindo uma estrutura freqüentista em minha resposta; isso não é verdade para EM em um contexto bayesiano em que estamos falando sobre os MAPs). Como não há dados ausentes (apenas um parâmetro desconhecido), a etapa E simplesmente retorna a probabilidade do log, independentemente da sua escolha de . A etapa M maximiza a probabilidade do log, produzindo o MLE.k(t)
O EM seria aplicável, por exemplo, se você tivesse observado dados de uma mistura de duas distribuições Weibull com os parâmetros e , mas você não sabia de qual dessas duas distribuições vinha cada observação.k1 k2
fonte