A maioria das descrições dos métodos de renderização de Monte Carlo, como rastreamento de caminho ou rastreamento de caminho bidirecional, assume que as amostras são geradas independentemente; isto é, é usado um gerador de números aleatórios padrão que gera um fluxo de números independentes e uniformemente distribuídos.
Sabemos que amostras que não são escolhidas independentemente podem ser benéficas em termos de ruído. Por exemplo, amostragem estratificada e sequências de baixa discrepância são dois exemplos de esquemas de amostragem correlacionados que quase sempre melhoram o tempo de renderização.
No entanto, existem muitos casos em que o impacto da correlação da amostra não é tão nítido. Por exemplo, os métodos Monte Carlo da cadeia de Markov, como o Metropolis Light Transport, geram um fluxo de amostras correlacionadas usando uma cadeia de Markov; os métodos de muitas luzes reutilizam um pequeno conjunto de caminhos de luz para muitos caminhos de câmera, criando muitas conexões de sombra correlacionadas; mesmo mapeamento de fótons ganha eficiência ao reutilizar os caminhos de luz em muitos pixels, aumentando também a correlação de amostras (embora de maneira tendenciosa).
Todos esses métodos de renderização podem ser benéficos em certas cenas, mas parecem piorar as coisas em outras. Não está claro como quantificar a qualidade do erro introduzido por essas técnicas, além de renderizar uma cena com diferentes algoritmos de renderização e observar se uma parece melhor que a outra.
Portanto, a pergunta é: como a correlação amostral influencia a variação e a convergência de um estimador de Monte Carlo? De alguma forma, podemos quantificar matematicamente que tipo de correlação amostral é melhor que outros? Existem outras considerações que podem influenciar se a correlação da amostra é benéfica ou prejudicial (por exemplo, erro de percepção, tremulação da animação)?
fonte
Respostas:
Há uma distinção importante a fazer.
Os métodos Monte Carlo da Cadeia de Markov (como o Metropolis Light Transport) reconhecem completamente o fato de que eles produzem muitos altamente correlacionados; na verdade, é a espinha dorsal do algoritmo.
Por outro lado, existem algoritmos como Rastreamento de Caminho Bidirecional, Método de Muitas Luzes, Mapeamento de Fótons, onde o papel crucial desempenha a Amostragem de Importância Múltipla e suas heurísticas de equilíbrio. A otimização da heurística da balança é comprovada apenas para amostras independentes. Muitos algoritmos modernos correlacionaram amostras e, para alguns, isso causa problemas e, para outros, não.
O problema com amostras correlacionadas foi reconhecido no artigo Conexões Probabilísticas para Rastreamento de Caminho Bidirecional . Onde eles alteraram a heurística do saldo para levar em conta a correlação. Veja a figura 17 no documento para ver o resultado.
Eu gostaria de salientar que a correlação é "sempre" ruim. Se você pode dar ao luxo de fazer uma amostra nova do que fazê-lo. Mas na maioria das vezes você não pode pagar por isso, então espera que o erro devido à correlação seja pequeno.
Edite para explicar o "sempre" : quero dizer isso no contexto da integração do MC
Onde você mede o erro com variação do estimador
Se as amostras são independentes, o termo de covariância é zero. Amostras correlacionadas tornam esse termo sempre diferente de zero, aumentando assim a variação do estimador final.
À primeira vista, é algo contraditório o que encontramos com a amostragem estratificada porque a estratificação diminui o erro. Mas você não pode provar que a amostragem estratificada converge para o resultado desejado apenas do ponto de vista probabilístico, porque no núcleo da amostragem estratificada não há probabilidade envolvida.
E o problema da amostragem estratificada é que basicamente não é um método de Monte Carlo. A amostragem estratificada vem de regras padrão de quadratura para integração numérica, que funcionam muito bem para integrar funções suaves em baixas dimensões. É por isso que é usado para lidar com iluminação direta, o que é um problema de baixa dimensão, mas sua suavidade é discutível.
Portanto, a amostragem estratificada é um tipo de correlação diferente do que, por exemplo, a correlação nos métodos Many Light.
fonte
A função de intensidade hemisférica, ou seja, a função hemisférica da luz incidente multiplicada pelo BRDF, correlaciona-se com o número de amostras necessárias por ângulo sólido. Pegue a distribuição da amostra de qualquer método e compare-a com essa função hemisférica. Quanto mais semelhantes, melhor o método nesse caso específico.
Observe que, como essa função de intensidade é geralmente desconhecida , todos esses métodos usam heurísticas. Se as suposições das heurísticas forem atendidas, a distribuição será melhor (= mais próxima da função desejada) do que uma distribuição aleatória. Se não, é pior.
Por exemplo, a amostragem por importância usa o BRDF para distribuir amostras, o que é simples, mas usa apenas uma parte da função de intensidade. Uma fonte de luz muito forte que ilumina uma superfície difusa em ângulo raso receberá poucas amostras, embora sua influência ainda possa ser enorme. O Metropolis Light Transport gera novas amostras das anteriores com alta intensidade, o que é bom para poucas fontes de luz fortes, mas não ajuda se a luz chegar uniformemente de todas as direções.
fonte