É possível ter uma equação de regressão (múltipla) com duas ou mais variáveis dependentes? Claro, você pode executar duas equações de regressão separadas, uma para cada DV, mas isso não parece capturar qualquer relação entre os dois DVs?
regression
Jeff
fonte
fonte
Respostas:
Sim, é possível. O que você está interessado é chamado "Regressão múltipla multivariada" ou apenas "Regressão multivariada". Não sei qual software você está usando, mas você pode fazer isso em R.
Aqui está um link que fornece exemplos.
http://www.public.iastate.edu/~maitra/stat501/lectures/MultivariateRegression.pdf
fonte
A resposta de @ Brett está bem.
Se você estiver interessado em descrever sua estrutura de dois blocos, também poderá usar a regressão PLS . Basicamente, é uma estrutura de regressão que se baseia na ideia de construir sucessivas combinações lineares (ortogonais) das variáveis pertencentes a cada bloco, de modo que sua covariância seja máxima. Aqui, consideramos que um bloco contém variáveis explicativas e o outro bloco Y responde variáveis, como mostrado abaixo:X Y
Procuramos "variáveis latentes" que sejam responsáveis por um máximo de informações (de maneira linear) incluídas no bloco , permitindo prever o bloco Y com um erro mínimo. O u j e v j são as cargas (isto é, combinações lineares) associados a cada dimensão. O critério de otimização lêX Y vocêj vj
onde representa o bloco desinflado (isto é, residualizado) , após a regressão . X h thXh - 1 X hº
A correlação entre as pontuações fatoriais na primeira dimensão ( e ) reflete a magnitude do link -ω 1 X Yξ1 ω1 X Y
fonte
A regressão multivariada é feita no SPSS usando a opção multivariada GLM.
Coloque todos os seus resultados (DVs) na caixa de resultados, mas todos os seus preditores contínuos na caixa de covariáveis. Você não precisa de nada na caixa de fatores. Veja os testes multivariados. Os testes univariados serão os mesmos que as regressões múltiplas separadas.
Como alguém disse, você também pode especificar isso como um modelo de equação estrutural, mas os testes são os mesmos.
(Curiosamente, bem, acho que é interessante, há um pouco de diferença entre o Reino Unido e os EUA. No Reino Unido, a regressão múltipla geralmente não é considerada uma técnica multivariada, portanto, a regressão multivariada só é multivariada quando você tem vários resultados / DVs. )
fonte
Eu faria isso transformando primeiro as variáveis de regressão em variáveis calculadas pelo PCA e, em seguida, faria a regressão com as variáveis calculadas pelo PCA. É claro que eu armazenaria os vetores próprios para poder calcular os valores correspondentes de pca quando tiver uma nova instância que queira classificar.
fonte
Como mencionado por caracal, você pode usar o pacote mvtnorm em R. Supondo que você tenha criado um modelo lm (chamado "modelo") de uma das respostas em seu modelo e chamado de "modelo", aqui está como obter a distribuição preditiva multivariada de várias respostas "resp1", "resp2", "resp3" armazenadas em uma matriz Y:
Agora, quantis de ysim são intervalos de tolerância de expectativa beta da distribuição preditiva, é claro que você pode usar diretamente a distribuição amostrada para fazer o que quiser.
Para responder a Andrew F., os graus de liberdade são, portanto, nu = N- (M + F) +1 ... N sendo o número de observações, M o número de respostas e F o número de parâmetros por modelo de equação. nu deve ser positivo.
(Você pode ler meu trabalho neste documento :-))
fonte
Você já se deparou com o termo "correlação canônica"? Lá você tem conjuntos de variáveis no lado independente e no lado dependente. Mas talvez haja conceitos mais modernos disponíveis, as descrições que tenho são dos anos oitenta / noventa ...
fonte
É chamado modelo de equação estrutural ou modelo de equação simultânea.
fonte