Esta questão lida com a estimativa de máxima verossimilhança restrita (REML) em uma versão específica do modelo linear, a saber:
onde é uma matriz ( ) parametrizada por , como . é um vetor desconhecido de parâmetros incômodos; o interesse é estimar e temos . Estimar o modelo pela máxima probabilidade não é um problema, mas quero usar o REML. É bem sabido, ver, por exemplo , LaMotte , que a probabilidade , onde é qualquer matriz semi-ortogonal, de modo que possa ser escritaA ′ Y A A ′ X = 0
quando é a classificação da coluna completa .
Meu problema é que, para alguns razoavelmente razoáveis e cientificamente interessantes, a matriz não é da coluna completa. Todas as derivações que eu vi da probabilidade restrita acima fazem uso de igualdades determinantes que não são aplicáveis quando , ou seja, eles assumem uma posição de coluna cheia de . Isso significa que a probabilidade restrita acima é correta apenas para minha configuração em partes do espaço de parâmetros e, portanto, não é o que eu quero otimizar.
Pergunta: Existem probabilidades restritas mais gerais, derivadas, na literatura estatística ou em qualquer outro lugar, sem a suposição de que seja o ranking completo da coluna? Se sim, como eles são?
Algumas observações:
- A derivação da parte exponencial não é problema para qualquer e pode ser escrita em termos da inversa de Moore-Penrose, como acima
- As colunas de são uma (qualquer) base ortonormal para C ( X ) ⊥
- Para conhecido , a probabilidade de A ′ Y pode ser facilmente anotada para cada α , mas é claro que o número de vetores de base, isto é, colunas, em A depende da classificação da coluna de X
Se qualquer pessoa interessada nesta questão acredita que a parametrização exata de iria ajudar, deixe-me saber e eu vou escrevê-las. Neste ponto, porém, estou mais interessado em uma REML para um X geral das dimensões corretas.
Uma descrição mais detalhada do modelo segue aqui. Seja seja uma regressão automática vetorial de primeira ordem r- dimensional [VAR (1)] onde v t i i d ∼ N ( 0 , Ω ) . Suponha que o processo seja iniciado em algum valor fixo y 0 no tempo t = 0 .
Defina . O modelo pode ser escrito no formato de modelo linear Y = X β + ε usando as seguintes definições e notação:
onde indica um T - vetor dimensional de uns e de e 1 , t o primeiro vector base padrão de R T .
Denota . Observe que, se A não estiver na classificação completa, X ( α ) não será na coluna completa. Isso inclui, por exemplo, casos em que um dos componentes de y t não depende do passado.
A idéia de estimar VARs usando REML é bem conhecida, por exemplo, na literatura de regressões preditivas (veja, por exemplo, Phillips e Chen e as referências nela).
Pode valer a pena esclarecer que a matriz não é uma matriz de design no sentido usual, apenas cai fora do modelo e, a menos que exista um conhecimento prévio sobre A, não há, até onde posso dizer, nenhuma maneira de reparameterizar para ser classificação completa.
Publiquei uma pergunta em math.stackexchange que está relacionada a essa no sentido de que uma resposta para a pergunta de matemática pode ajudar a derivar uma probabilidade de resposta a essa pergunta.
Respostas:
Duvido que esta observação esteja correta. O inverso generalizado na verdade impõe restrições lineares adicionais aos seus estimadores [Rao & Mitra]; portanto, devemos considerar a probabilidade conjunta como um todo, em vez de adivinhar que "o inverso de Moore-Penrose funcionará para a parte exponencial". Isso parece formalmente correto, mas você provavelmente não entende o modelo misto corretamente.
(1) Como pensar modelos de efeitos mistos corretamente?■
Você precisa pensar no modelo de efeito misto de uma maneira diferente antes de tentar conectar o inverso-g (OR Moore-Penrose inverso, que é um tipo especial de inverso-g reflexivo [Rao & Mitra]) mecanicamente na fórmula dada por RMLE (Restricted Estimador de máxima verossimilhança, o mesmo abaixo.).
Uma maneira comum de pensar em efeito misto é que a parte do efeito aleatório na matriz de projeto é introduzida por erro de medição, que leva outro nome de "preditor estocástico" se nos preocupamos mais com predição do que com estimativa. Essa é também uma motivação histórica do estudo da matriz estocástica no estabelecimento de estatísticas.
Dada essa maneira de pensar a probabilidade, a probabilidade de que não seja de classificação completa é zero. Isso ocorre porque a função determinante é contínua nas entradas da matriz e a distribuição normal é uma distribuição contínua que atribui probabilidade zero a um único ponto. A probabilidade da classificação defeituosa X ( α ) é positiva se você a tiver parametrizado de maneira patológica como ( α α α αX( α ) X( α ) .⎛⎝⎜ααααr a n do me ffe c t⎞⎠⎟
Portanto, a solução para sua pergunta é também bastante para a frente, você simplesmente perturb seu projeto matriz (perturbar a parte efeito fixo apenas), e usar a matriz perturbada (que é a classificação completa) para realizar todas as derivações. A menos que seu modelo tenha hierarquias complicadas ou X seja quase singular, não vejo um problema sério quando você obtém ϵ → 0 no resultado final, pois a função determinante é contínua e podemos assumir o limite dentro da função determinante. l iXϵ( α ) = X( α ) + ϵ ( I0 00 00 0) X ϵ → 0 . E, na forma de perturbação, o inverso de X ϵ pode ser obtido pelo Teorema de Sherman-Morrision-Woodbury. E o determinante da matriz I + X é dado em um livro de álgebra linear padrão como [Horn & Johnson]. É claro que podemos escrever o determinante em termos de cada entrada da matriz, mas a perturbação é sempre preferida [Horn & Johnson].l i mϵ → 0| Xϵ| = | li mϵ → 0Xϵ| Xϵ Eu+ X
(2) Como devemos lidar com parâmetros de perturbação em um modelo?■
Como você vê, para lidar com a parte do efeito aleatório no modelo, devemos considerá-la como uma espécie de "parâmetro incômodo". O problema é: o RMLE é a maneira mais apropriada de eliminar um parâmetro incômodo? Mesmo nos modelos GLM e de efeito misto, o RMLE está longe de ser a única opção. [Basu] apontou que muitas outras maneiras de eliminar parâmetros na definição de estimativas. Hoje, as pessoas tendem a escolher entre modelagem RMLE e Bayesiana, porque correspondem a duas soluções populares baseadas em computador: EM e MCMC, respectivamente.
Na minha opinião, é definitivamente mais adequado introduzir um prior na situação de classificação defeituosa na parte de efeito fixo. Ou você pode reparameterizar seu modelo para transformá-lo em um ranking completo.
Além disso, caso seu efeito fixo não seja de classificação completa, você pode se preocupar acima da estrutura de covariância mal especificada, porque os graus de liberdade em efeitos fixos devem ter entrado na parte do erro. Para ver este ponto mais claramente, você pode querer considerar o MLE (também LSE) para os GLS (General menos onde Σ é a estrutura de covariância de o termo de erro, para o caso em que X ( α ) não está na classificação completa.β^= ( XΣ- 1X′)- 1Σ- 1y Σ X( α )
(3) Outros comentários■
O problema não é como você modifica o RMLE para fazê-lo funcionar no caso em que parte de efeito fixo da matriz não é de classificação completa; o problema é que, nesse caso, seu próprio modelo pode ser problemático se um caso não de classificação completa tiver probabilidade positiva.
Um caso relevante que encontrei é que, no caso espacial, as pessoas podem querer reduzir a classificação da parte de efeito fixo devido à consideração computacional [Wikle].
Não vi nenhum caso "cientificamente interessante" em tal situação. Você pode apontar alguma literatura em que o caso não-hierárquico é de grande preocupação? Gostaria de saber e discutir mais, obrigado.
[Rao & Mitra] Rao, Calyampudi Radhakrishna e Sujit Kumar Mitra. Inverso generalizado de matrizes e suas aplicações. Vol. 7. New York: Wiley, 1971.
[Basu] Basu, Debabrata. "Sobre a eliminação de parâmetros incômodos." Jornal da Associação Estatística Americana 72.358 (1977): 355-366.
[Horn & Johnson] Horn, Roger A. e Charles R. Johnson. Análise matricial. Cambridge University Press, 2012.
[Wikle] Wikle, Christopher K. "Representações de baixo escalão para processos espaciais". Handbook of Spatial Statistics (2010): 107-118.
fonte