Para identificação , estamos falando de um parâmetro (que pode ser um vetor), que varia em um espaço de parâmetros , e de uma família de distribuições (para simplificar, pense em PDFs) indexadas por que normalmente escrevemos algo como . Por exemplo, poderia ser e poderia serΘ θ { f θ |θΘθθ θ = β f{ fθ|θ ∈ Θ }θθ = βf
Θ=(0,∞)θfθfθ 1 =fθ 2 x
fθ( x ) = 1βe- x / β, x > 0 , β > 0 ,
que significa que . Para que o modelo seja identificável, a transformação que mapeia para deve ser
individual . Dado um modelo em seu colo, a maneira mais direta de verificar isso é começar com a equação (essa igualdade deve conter (quase) todo em o
suporte ) e tentar usar a álgebra (ou algum outro argumento) para mostrar que essa equação implica que, de fato, .
Θ = ( 0 , ∞ )θfθfθ1= fθ2xθ1= θ2
Se você tiver sucesso com esse plano, seu modelo é identificável; continue com o seu negócio. Caso contrário, seu modelo não é identificável ou você precisa encontrar outro argumento. A intuição é a mesma, independentemente: em um modelo identificável, é impossível para dois parâmetros distintos (que poderiam ser vetores) dar origem à mesma função de probabilidade.
Isso faz sentido, porque, se, para dados fixos, dois parâmetros únicos deram origem à mesma probabilidade, seria impossível distinguir entre os dois parâmetros candidatos com base apenas nos dados. Seria impossível identificar o parâmetro true, nesse caso.
Para o exemplo acima, a equação é
para (quase) todos os . Se pegarmos logs de ambos os lados, obteremos
para , que implica a função linear
é (quase) idêntico a zero. A única linha que faz isso é a que tem inclinação 0 e interceptação em y zero. Espero que você possa ver o resto. 1fθ1= fθ2x>0-ln
1β1e- x / β1= 1β2e- x / β2,
x > 0 x>0-(1- emβ1- xβ1= - lnβ2- xβ2
x > 0- ( 1β1- 1β2) x-(lnβ1- emβ2)
A propósito, se você pode ver, olhando para o seu modelo, que ele não é identificável (às vezes é possível), é comum introduzir restrições adicionais para torná-lo identificável (como você mencionou). Isso é semelhante ao reconhecimento de que a função não é um para um para em , mas é um para um se restringirmos a mentir interior . Em modelos mais complicados, as equações são mais difíceis, mas a ideia é a mesma. y [ - 1 , 1 ] y [ 0 , 1 ]f( y) = y2y[ - 1 , 1 ]y[ 0 , 1 ]
Uma maneira é inspecionar a matriz de covariância, , das suas estimativas de parâmetros. Se duas estimativas de parâmetros estiverem perfeitamente (aproximadamente) correlacionadas entre si ou se uma estimativa de parâmetros for uma combinação (aproximadamente) linear de várias outras, seu modelo não será identificado; os parâmetros que são funções dos outros não são necessários. Em cada um desses casos, também será (aproximadamente) singular. Portanto, se for aproximadamente singular, isso pode lhe dar um motivo para se preocupar com problemas de identificação. (Embora eu ache que isso não detectaria relacionamentos não lineares entre as estimativas de parâmetros que dariam origem à não identificabilidade).Σ ΣΣ Σ Σ
O problema prático é que geralmente é difícil calcular para modelos até levemente complicados.Σ
Se você está enfrentando um problema de máxima verossimilhança, sabe que a matriz de covariância assintótica de suas estimativas é igual ao inverso das informações de fisher avaliadas no MLE. Portanto, verificar a matriz de informações dos pescadores quanto à singularidade (aproximada) também é uma maneira razoável de avaliar a identificabilidade. Isso também funciona onde a informação teórica do pescador é difícil de calcular, porque muitas vezes é possível aproximar numericamente com precisão um estimador consistente da matriz de informações do pescador, por exemplo, estimando o produto externo esperado da função de pontuação pelo produto externo médio observado .
Se você não estiver enfrentando um problema de ML, poderá obter um controle sobre simulando dados do modelo e estimando parâmetros muitas vezes e calculando uma matriz de covariância de amostra.Σ
fonte