Você deve primeiro verificar esta pergunta básica sobre a matriz de informações de Fisher e o relacionamento com erros Hessianos e padrão
Suponha que tenhamos um modelo estatístico (família de distribuições) . No caso mais geral, temos d i m ( Θ ) = d , assim que esta família é parametrizado por θ = ( θ 1 , ... , θ d ) T . Sob certas condições de regularidade, temos{ fθ: θ ∈ Θ }di m ( Θ ) = dθ = ( θ1 1, … , Θd)T
Eui , j( θ ) = - Eθ[ ∂2l ( X; θ )∂θEu∂θj] =-Eθ[ Hi , j( l ( X; θ ) ) ]
onde é uma matriz de informação de Fisher (como uma função de θ ) e X é o valor observado (amostra)Eui , jθX
l ( X; θ ) = l n ( fθ( X) ) , para alguns θ ∈ Θ
Portanto, a matriz de informações de Fisher é um valor esperado negado de Hesian da probabilidade logarítmica sob algum θ
Agora, digamos que queremos estimar alguma função vetorial do parâmetro desconhecido . Normalmente, é desejado que o estimador T ( X ) = ( T 1 ( X ) , ... , T d ( X ) ) deve ser neutro, ou sejaψ ( θ )T( X) = ( T1 1( X) , … , Td( X) ))
∀θ ∈ Θ Eθ[ T( X) ] = ψ ( θ )
O limite inferior de Cramer Rao afirma que para cada T ( X ) imparcial o c o v θ ( T ( X ) ) satisfazT( X)c o vθ( T( X) ))
c o vθ( T( X) ) ≥ ∂ψ ( θ )∂θEu- 1( θ ) ( ∂ψ ( θ )∂θ)T= B ( θ )
onde para matrizes significa que A - B é semi-definido positivo , ∂ ψ ( θ )A ≥ BA - B é simplesmente um jacobianoJi,j(ψ). Observe que, se estimarmosθ, isto éψ(θ)=θ, acima simplificaremos para∂ψ ( θ )∂θJi , j( ψ )θψ ( θ ) = θ
c o vθ( T( X) ) ≥ I- 1( θ )
Mas o que isso nos diz realmente? Por exemplo, lembre-se de que
v a rθ( TEu( X) ) = [ c o vθ( T( X) ) ]i , i
UMA
∀Eu UMAi , i≥ 0
B ( θ )
∀Eu v a rθ( TEu( X) ) ≥ [ B ( θ ) ]i , i
Portanto, o CRLB não nos diz a variação do nosso estimador, mas se o estimador é ótimo ou não , ou seja, se ele tem uma covariância mais baixa entre todos os estimadores imparciais.