Eu li que o quadrado-R é inválido para modelos não lineares, porque o relacionamento que SSR + SSE = SSTotal não mantém mais. Alguém pode explicar por que isso é verdade?
SSR e SSE são apenas as normas ao quadrado dos vetores de regressão e residuais, cujos componentes são e (Y_i- \ hat {Y_i}) , respectivamente. Enquanto esses vetores forem ortogonais entre si, a relação acima não deve sempre ser mantida, independentemente do tipo de função usada para mapear os valores preditores aos ajustados?
Além disso, os vetores de regressão e residuais associados a qualquer modelo de mínimos quadrados não devem ser ortogonais, por definição de mínimos quadrados? O vetor residual é a diferença entre o vetor e o vetor de regressão. Se o vetor de regressão for tal que o vetor residual / diferença não seja ortogonal a ele, o vetor de regressão poderá ser multiplicado por uma constante, para que agora seja ortogonal ao vetor residual / diferença. Isso também deve reduzir a norma do vetor residual / diferença.
Se eu expliquei isso mal, diga-me e tentarei esclarecer.
Respostas:
As somas de quadrados na regressão linear são casos especiais dos valores de desvio mais gerais no modelo linear generalizado. No modelo mais geral, há uma distribuição de respostas com média vinculada a uma função linear das variáveis explicativas (com um termo de interceptação). As três estatísticas de desvio em um GLM são definidas como:
Nessas expressões, o valor é a probabilidade maximizada de log em um modelo saturado (um parâmetro por ponto de dados), é a probabilidade maximizada de log em um modelo nulo (apenas para interceptação ) e é a probabilidade logarítmica maximizada no modelo (termo de interceptação e coeficientes ).ℓ^S ℓ^0 0 ℓ^p p
Essas estatísticas de desvio desempenham um papel análogo às versões em escala das somas de quadrados na regressão linear. É fácil ver que eles satisfazem a decomposição , que é análoga à decomposição das somas de quadrados em regressão linear. De fato, no caso em que você tem uma distribuição de resposta normal com uma função de link linear, obtém um modelo de regressão linear e as estatísticas de desvio são reduzidas para o seguinte:DTO T=DR EG+DR ES
Agora, o coeficiente de variação em um modelo de regressão linear é uma estatística de qualidade de ajuste que mede a proporção da variação total na resposta atribuível às variáveis explicativas. Uma extensão natural no caso de um GLM é formar a estatística:
É fácil ver que essa estatística se reduz ao coeficiente de variação no caso especial de regressão linear, uma vez que os valores de escala se cancelam. No contexto mais amplo de um GLM, a estatística tem uma interpretação natural que é análoga à sua interpretação em regressão linear: fornece a proporção do desvio nulo que é explicada pelas variáveis explicativas no modelo.
Agora que vimos como as somas de quadrados na regressão linear se estendem aos desvios em um GLM, podemos ver que o coeficiente de variação regular é inadequado no modelo não linear, pois é específico ao caso de um modelo linear com um termo de erro normalmente distribuído. No entanto, podemos ver que, embora o coeficiente de variação padrão seja inadequado, é possível formar uma analogia apropriada usando os valores de desvio, com uma interpretação análoga.
fonte
Por que SSE + SSR deve ser igual a SST? Aconteceu ser o caso do modelo linear. Há muitas maneiras de mostrar que ele deve para sob condições de Gauss-Markov. No entanto, ele não precisa se sustentar no caso geral. O ônus é provar que é válido, não que nãoy= Xβ+ ε
fonte
Embora o quadrado R ainda possa ser uma medida defeituosa em modelos não lineares por outras razões, acredito que mostrei suficientemente que a relação SSR + SSE = SSTotal ainda se mantém em um modelo de mínimos quadrados para certas funções não lineares, especialmente aquelas que permitem um termo constante, como modelos polinomiais. Acredito que esta conclusão seja compatível com o que foi publicado nesta discussão, incluindo o que li no link ncbi fornecido, embora não tenha sido possível acessar o relatório completo.
Se alguém tem uma série de valores ajustadosy^Eu com relação a uma série de observações , onde , sendo um termo constante a função de variáveis preditoras, nas quais o vetor de não é ortogonal a , pode-se criar um novo conjunto de valores ajustados modo que , em que c = . Com novos valores ajustados , o vetoryEu y^Eu = A + f( X) = Y¯ + ( A -Y¯) + f( X) UMA f( X) (YEu^-Y¯) (YEu-YEu^) ZEu ZEu= c ∗ (YEu^-Y¯) +Y¯ ∑ (YEu^-Y¯) ∗ (YEu-YEu^) / ∑ (YEu^-Y¯)2 ZEu (ZEu-Y¯) será ortogonal ao vetor de erro e esse novo vetor de erro terá uma soma menor de quadrados que o original . Os foram simplesmente obtidos multiplicando o modelo estimado original por uma constante e adicionando um múltiplo da média das observações, o que é compatível com o modelo de termo constante. Portanto, um modelo de mínimos quadrados sempre deve ter regressão ortogonal e vetores de erro nessas circunstâncias, o que significa que .(YEu-ZEu) (YEu-YEu^) ZEu " c " SSE+ SSR = SSTO t um l
Criei modelos polinomiais em um punhado de conjuntos de dados no trabalho e esse relacionamento se manteve com todos eles. Estou apenas dizendo.
fonte
Observe ao executar uma série de experimentos e deseja garantir que o experimento de hoje seja consistente com outras execuções do experimento. Por exemplo, se você sempre obtém entre 0,90 e 0,95, mas hoje obtém = 0,75, deve suspeitar e procurar com atenção se algo deu errado com os métodos ou reagentes usados naquela experiência em particular. E se um novo funcionário fornecer resultados mostrando de 0,99 usando o mesmo sistema, você deve examinar cuidadosamente quantos "outliers" foram removidos e se alguns dados foram criados.R2 R2 R2 R2
Mais .
fonte