Quais são as etapas para converter a soma ponderada dos quadrados em forma de matriz?

8

Eu sou novo na conversão de fórmulas para matriz. Mas isso é necessário para um código eficiente de aprendizado de máquina. Então, eu quero entender o caminho "certo", não as coisas de cowboy que eu faço.

Tudo bem, aqui vamos nós, estou tentando converter a soma ponderada dos quadrados do formulário abaixo em forma de matriz. Costumo ver a forma da matriz como sendo equivalente à abaixo, e nenhuma explicação é dada sobre como é derivada.

J(w)=i=1mui(wTxiyi)2

onde é o peso para cada erro de amostra . Além disso, x_i \ in \ mathbb {R ^ n} , w \ in \ mathbb {R ^ n} , y \ in \ mathbb {R} , u_i \ in \ mathbb {R} , i = 1, ..., m . w ^ T x_i é o valor previsto, o resultado da multiplicação de um vetor de peso por um vetor de característica.i x iR n w R n y R u iR i = 1 , . . . , m w T x iuiixiRnwRnyRuiRi=1,...,mwTxi

Aqui está o que penso e sou criativo. Portanto, fique à vontade para pular para o final, se eu for pela tangente.

Seja r um vetor de coluna de funções que represente o erro não-quadrado. Podemos representar (wTxiyi)2 sobre i=1,...,m como

(1)r2=[r1r2rm][r1r2rm]

Os resultados do vetor 1×m multiplicado pelo vetor m×1 são uma matriz 1×1 (escalar).

Deixe ser um vector de pesos que pesa cada amostra de erro. Como precisamos ponderar os erros ao quadrado, precisamos incorporar na Fórmula antes de obter o escalar. Como queremos que o primeiro permaneça como um vetor de , definimos como uma matriz diagonal com os termos diagonais vindos de . Agora temos:u 1 r 1 × m U uuu1r1×mUu

(2)J(W)=[r1r2rm][você10 00 00 0você20 00 00 0vocêm][r1r2rm]

Podemos simplificar isso para

(3)J(W)=rTvocêr

Agora nós expandimos . Nós tínhamosx iR n w R n X w m × n w n × 1 m x 1 y = 1 , . . . , m r = ( X w - y ) 3 J ( w ) = ( X w - y ) T U ( X w - y )rxEuRn multiplicado por , fornecendo-nos onde X agora é uma matriz e é um vetor de coluna . Seja y o vetor da coluna representando os rótulos . Agora . Substituímos isso na fórmula , fornecendo-nos a soma final ponderada dos quadrados na forma de matriz: WRnXWm×nWn×1m×1y=1,...,mr=(XW-y)3

4)J(W)=(XW-y)Tvocê(XW-y)

Primeiro, isso faz sentido? Segundo, e mais importante, é assim que você deve fazer isso?

obrigado

vega
fonte
1
Isso: math.stackexchange.com/questions/198257/… pode ajudá-lo!
Kjetil b halvorsen
+1: Engraçado que você pensa que está fazendo 'coisas de caubói'. Esta é exatamente a maneira de fazê-lo, apesar de eu nunca escrever isso de maneira abrangente (trabalho tão bom!). Este é um capítulo de um livro do meu curso de econometria 1 durante meu estudo de econometria. A página 120 explica como reescrever uma função (fácil) na notação matricial e a página 121 é seu exemplo sem os pesos (embora seja uma notação ligeiramente diferente). Se bem me lembro, outro capítulo também lida com os estimadores WLS (que é basicamente sua expressão).
Marcel10
Parece bom para mim.
Matthew Gunn

Respostas:

1

Arriscarei uma resposta para esta pergunta: tudo o que você apresentou está correto.

O que você basicamente derivou é o teorema de Gauss-Markov: o estimador de mínimos quadrados ponderados é o melhor estimador linear e imparcial para dados ponderados. Esse estimador minimiza a soma dos quadrados ponderados (sua primeira exibição) e é fornecido por: . AquiX1N×1β^WeuS=(XTWX)(XTWY)X é a matriz de design com a primeira coluna definida como o vetor de um (este é o termo de interceptação).1n×1

Este resultado se aplica a uma matriz de covariância arbitrária. No entanto, dados independentes ponderados são representados com um vetor de pesos ao longo da diagonal da matriz de pesos. (sua notação tem como coeficiente de regressão e como peso, portanto, para evitar confusão, a matriz de design seria e .u X = [ x ] , W = diag ( u ) , β = [ w ]WvocêX=[x],W=diag(você),β=[W]

A prova do teorema de Gauss Markov é por contradição. Veja aqui . O que isso significa é que não derivamos analiticamente esse estimador diretamente da função de perda. Você pode ter visto essa abordagem usada para derivar equações de estimativa de regressão linear e logística.

AdamO
fonte