Atualmente, estou trabalhando em sensoriamento comprimido e representação esparsa de sinais, especificamente imagens.
Muitas vezes me perguntam "o que é definição de escarsidade?". Eu respondo "se a maioria dos elementos de um sinal é zero ou quase zero, em algum domínio como Fourier ou Wavelet, esse sinal é escasso nessa base". mas sempre há um problema nessa definição: "o que a maioria dos elementos significa? São 90%? 80%? 92,86% ?!" Aqui é onde minha pergunta se coloca: existe alguma definição exata, isto é, numérica, para a escarsidade?
Respostas:
“ Existe alguma definição exata, ou seja, numérica, para a escarsidade? ” E por numérica , eu entendo tanto computável quanto praticamente “utilizável”. Minha opinião é a seguinte: ainda não, pelo menos, não há consenso, mas existem alguns candidatos dignos. A primeira opção " contar apenas termos diferentes de zero " é precisa, mas ineficiente (sensível à aproximação numérica e ao ruído e muito complexa para otimizar). A segunda opção "a maioria dos elementos de um sinal é zero ou quase zero " é bastante imprecisa, tanto em "mais" quanto em "próximo a".
Portanto, " uma medida exata da esparsidade " permanece ilusória, sem aspectos mais formais. Uma tentativa recente de definir a dispersão realizada em Hurley e Rickard, 2009 Comparando Medidas de Sparsidade , Transações IEEE sobre Teoria da Informação.
A idéia deles é fornecer um conjunto de axiomas que uma boa medida de escarsidade deve cumprir; por exemplo, um sinalx multiplicado por uma constante diferente de zero, α x , deve ter a mesma esparsidade. Em outros termos, uma medida de esparsidade deve ser 0 0 homogênea. Curiosamente, o proxy ℓ1 1 na detecção compressiva ou na regressão do laço é 1 1 homogêneo. Este é realmente o caso de toda norma ou quase-norma ℓp , mesmo que elas tendam à medida de contagem (não robusta) ℓ0 0 como p → 0 .
Então eles detalham seus seis axiomas, executam cálculos, tomados emprestados da análise de riqueza:
fonte