Ultimamente, tenho visto muitos trabalhos sobre representações esparsas, e a maioria deles usa a norma e faz alguma minimização. Minha pergunta é, qual é o norma, e o norma mista? E como eles são relevantes para a regularização?
obrigado
Ultimamente, tenho visto muitos trabalhos sobre representações esparsas, e a maioria deles usa a norma e faz alguma minimização. Minha pergunta é, qual é o norma, e o norma mista? E como eles são relevantes para a regularização?
obrigado
(Também existem normas , que são definidas de forma análoga, exceto para funções em vez de vetores ou sequências - na verdade, é a mesma coisa, pois vetores são funções com domínios finitos.)
Não conheço nenhum uso de uma norma em um aplicativo de aprendizado de máquina em que , exceto em que . Geralmente você vê ou , ou às vezes onde deseja relaxar o caso ; não é estritamente convexo em , mas é, para . Isso pode facilitar a localização da solução em alguns casos.
No contexto da regularização, se você adicionar à sua função objetivo, o que você está dizendo é que espera que seja escasso , ou seja, composto principalmente de zeros. É um pouco técnico, mas basicamente, se houver uma solução densa , provavelmente haverá uma solução mais esparsa com a mesma norma. Se você espera que sua solução seja densa, você pode adicionar ao seu objetivo, porque é muito mais fácil trabalhar com sua derivada. Ambos têm o objetivo de impedir que a solução tenha muito peso.
A norma mista surge quando você está tentando integrar várias fontes. Basicamente, você deseja que o vetor da solução seja composto de várias partes , onde é o índice de alguma fonte. A é apenas a -norm de todas as -norms coletadas em um vetor. Ou seja,
O objetivo disso não é "oversparsify" um conjunto de soluções, digamos, usando . As peças individuais são escassas, mas você não corre o risco de destruir um vetor de solução inteiro, pegando o número de todas as soluções. Então você usa o -norm do lado de fora.
Espero que ajude.
Veja este documento para mais detalhes.