Ao calcular o AIC,
k significa 'número de parâmetros'. Mas o que conta como parâmetro? Então, por exemplo, no modelo
A e b são sempre contados como parâmetros? E se eu não me importo com o valor da interceptação, posso ignorá-lo ou ainda conta?
E se
onde é uma função de c e x, agora conto 3 parâmetros?
Respostas:
Como Mugen mencionado, representa o número de parâmetros estimados . Em outras palavras, é o número de quantidades adicionais que você precisa conhecer para especificar completamente o modelo. No modelo de regressão linear simples é possível estimar , ou ambos. Quaisquer quantidades que você não estimar, devem ser corrigidas. Não há "ignorando" um parâmetro no sentido de que você não o conhece e não se importa com isso. O modelo mais comum que não estima e é o modelo sem interceptação, onde fixamos . Isso terá 1 parâmetro. Você poderia facilmente corrigir ouy = a x + b a b a b b = 0k
Se o seu modelo é o número de parâmetros depende se você corrige algum desses valores e na forma de . Por exemplo, se queremos estimar e sabemos que , quando escrevemos o modelo, temos com três parâmetros desconhecidos. Se, no entanto, , temos o modelo que realmente possui apenas dois parâmetros: e .f a , b , c f ( c , x ) = x c y = a x c + b f ( c , x ) = c x
É crucial que seja uma família de funções indexadas por . Se tudo que você sabe é que é contínuo e depende de e , então você está sem sorte, porque existem inúmeras funções contínuas.c f ( c , x ) c xf( c , x ) c f( c , x ) c x
fonte
(veja aqui )
Como você pode ver, representa o número de parâmetros estimados em cada modelo. Se o modelo incluir uma interceptação (ou seja, se você calcular uma estimativa pontual, variação e intervalo de confiança para a interceptação), ela será contabilizada como parâmetro. Por outro lado, se você estiver computando um modelo sem interceptação, ele não conta.k
Lembre-se de que a AIC não apenas resume a qualidade do ajuste, mas também considera a complexidade do modelo. É por isso que existe, para penalizar modelos com mais parâmetros.k
Não me sinto suficientemente informado para responder à sua segunda pergunta, deixarei para outro membro da comunidade.
fonte
Primeiro, para aqueles que podem não estar familiarizados com a AIC: o Akaike Information Criterion (AIC) é uma métrica simples projetada para comparar a "bondade" dos modelos.
Segundo a AIC, ao tentar escolher entre dois modelos diferentes que se aplicam às mesmas variáveis de entrada e resposta , ou seja, modelos projetados para resolver o mesmo problema, o modelo com a AIC mais baixa é considerado "melhor".
c
fonte