Supondo que eu tenha ajustado alguns modelos usando preditores (e a variável de resposta) do mesmo conjunto de dados.
Que mudanças no modelo tornarão irracional comparar os modelos com base na AIC?
1) Supondo que, se eu logar transformar a variável dependente, é justo compará-la com um modelo em que não houve transformação?
2) Se eu fosse remover preditores do modelo, poderia compará-lo com os modelos com todos os preditores adicionados a ele?
3) Se eu encaixar dois glms com famílias diferentes para os dois, ainda posso compará-los com base na AIC? E as diferentes funções de link?
Obrigdo por sua contribuição.
Respostas:
Se você tem dois modelos e para uma amostra , então, contanto que os modelos são sensíveis, você pode empregar AIC para compará-los. Obviamente, isso não significa que a AIC selecionará o modelo mais próximo da verdade, entre os concorrentes, já que a AIC é baseada em resultados assintóticos. Em um cenário extremo, suponha que você queira comparar dois modelos, um com 1 único parâmetro e outro com 100 parâmetros, e o tamanho da amostra éM1 M2 (y1,…,yn) 101 . Espera-se, então, observar uma precisão muito baixa na estimativa do modelo com 100 parâmetros, enquanto no modelo com 1 parâmetro é provável que o parâmetro seja estimado com precisão. Esse é um dos argumentos contra o uso da AIC para comparar modelos para os quais os estimadores de probabilidade têm taxas de convergência muito diferentes. Isso pode acontecer mesmo em modelos com o mesmo número de parâmetros.
Isso é conhecido como seleção de variável AIC gradual. Já implementado no comando R
stepAIC()
.Novamente, desde que faça sentido modelar os dados com esse tipo de modelo.
Algumas discussões interessantes sobre o uso da AIC podem ser encontradas aqui:
MITOS DA AIC E ENTENDIDAS
fonte