No presente trabalho de Lustig, ele fala sobre uma coisa que parece intuitiva: amostragem ao acaso podem apresentar melhor desempenho do que a amostragem de maneira uniforme. Tentei entender isso a partir da página 15 desses slides , mas não consigo entender nada.
Por que, se tomarmos a permutação aleatória dos coeficientes de frequência, obteremos uma melhor reconstrução em termos de semelhança de sinal? Por que isso dá uma melhor reconstrução e qual é a intuição por trás do fenômeno?
Respostas:
A idéia principal é que a abordagem de amostragem aleatória imponha mais restrições ao sinal resultante do que a abordagem uniforme de amostragem.
O algoritmo POCS (projeções em conjuntos convexos) usado para a reconstrução do sinal amostrado aleatoriamente é a peça principal: ele impõe:
A abordagem de amostragem uniforme não tenta impor a restrição em negrito .
Aqui está um exemplo que mostra:
Como você pode ver, essa restrição final realmente melhora bastante a reconstrução.
Código R Abaixo
fonte