Como forma de motivar a pergunta, considere um problema de regressão em que procuramos estimar usando as variáveis observadas { a , b }
Ao fazer a regressão polinomial multivariada, tento encontrar a paramitização ideal da função
que melhor se ajustam aos dados no sentido menos quadrado.
O problema com isso, porém, é que os parâmetros não são independentes. Existe uma maneira de fazer a regressão em um conjunto diferente de vetores "básicos" ortogonais? Fazer isso tem muitas vantagens óbvias
1) os coeficientes não estão mais correlacionados. 2) os valores de a 's si não dependem do grau de coeficientes. 3) Isso também tem a vantagem computacional de poder descartar os termos de ordem superior para uma aproximação mais grosseira, mas ainda precisa, dos dados.
Isso é facilmente alcançado no caso de variável única usando polinômios ortogonais, usando um conjunto bem estudado, como os polinômios de Chebyshev. Não é óbvio, no entanto (para mim de qualquer maneira) como generalizar isso! Ocorreu-me que eu poderia alterar os polinômios dos pares de pares, mas não tenho certeza se essa é a coisa matematicamente correta a ser feita.
Sua ajuda é apreciada
fonte
Respostas:
Por uma questão de conclusão (e para ajudar a melhorar as estatísticas deste site, ha), tenho que me perguntar se este documento também não responderia à sua pergunta?
Caso contrário, a base tensor-produto dos polinômios unidimensionais não é apenas a técnica apropriada, mas também a única que posso encontrar para isso.
fonte