Li no resumo deste artigo que:
"O procedimento de máxima verossimilhança (ML) do Hartley aud Rao é modificado adaptando uma transformação de Patterson e Thompson que particiona a probabilidade renderizar a normalidade em duas partes, sendo uma livre dos efeitos fixos. A maximização dessa parte produz o que é chamado de máxima verossimilhança restrita Estimadores (REML) ".
Também li no resumo deste artigo que REML:
"leva em consideração a perda de graus de liberdade resultante da estimativa de efeitos fixos".
Infelizmente, não tenho acesso ao texto completo desses papéis (e provavelmente não entenderia se o fizesse).
Além disso, quais são as vantagens de REML vs. ML? Em que circunstâncias a REML pode ser preferida à ML (ou vice-versa) ao ajustar um modelo de efeitos mistos? Por favor, dê uma explicação adequada para alguém com formação em matemática no ensino médio (ou logo após)!
fonte
Respostas:
Conforme a resposta do ocram, ML é enviesado para a estimativa dos componentes de variância. Mas observe que o viés fica menor para amostras maiores. Portanto, em resposta às suas perguntas " ... quais são as vantagens de REML vs ML? Em que circunstâncias REML pode ser preferível a ML (ou vice-versa) ao ajustar um modelo de efeitos mistos? ", Para amostras pequenas, é preferível REML. No entanto, os testes de razão de verossimilhança para REML requerem exatamente a mesma especificação de efeitos fixos nos dois modelos. Portanto, para comparar modelos com diferentes efeitos fixos (um cenário comum) com um teste de LR, o ML deve ser usado.
O REML leva em consideração o número de parâmetros (efeitos fixos) estimados, perdendo 1 grau de liberdade para cada um. Isto é conseguido aplicando ML aos resíduos dos mínimos quadrados, que são independentes dos efeitos fixos.
fonte
Aqui está uma resposta rápida ...
Exemplo ilustrativo padrão
A estimativa de REML é frequentemente usada no contexto mais complicado de modelos mistos. Todo livro sobre modelos mistos tem uma seção explicando a estimativa de REML em mais detalhes.
Editar
@ Joe King: Aqui está um dos meus livros favoritos sobre modelos mistos que está totalmente disponível online. A Seção 2.4.2 trata da estimativa de componentes de variação. Boa leitura :-)
fonte
O método ML subestima os parâmetros de variação, pois assume que os parâmetros fixos são conhecidos sem incerteza ao estimar os parâmetros de variação.
O método REML usa um truque matemático para tornar as estimativas dos parâmetros de variação independentes das estimativas dos efeitos fixos. REML funciona obtendo primeiro resíduos de regressão para as observações modeladas pela parte de efeitos fixos do modelo, ignorando neste momento quaisquer componentes de variação.
As estimativas de ML são imparciais para os efeitos fixos, mas tendenciosas para os efeitos aleatórios, enquanto as estimativas de REML são tendenciosas para os efeitos fixos e imparciais para os efeitos aleatórios.
fonte