Eu sei que a divergência KL não é simétrica e não pode ser estritamente considerada uma métrica. Se sim, por que é usado quando o JS Divergence satisfaz as propriedades necessárias para uma métrica?
Existem cenários em que a divergência de KL pode ser usada, mas não a JS Divergence ou vice-versa?
probability
distributions
kullback-leibler
metric
user2761431
fonte
fonte
Respostas:
Encontrei uma resposta muito madura no Quora e coloquei aqui para as pessoas que a procuram aqui:
fonte
A divergência de KL tem clara interpretação teórica da informação e é bem conhecida; mas sou a primeira vez que ouço que a simetrização da divergência de KL é chamada de divergência de JS. A razão pela qual a divergência de JS não é usada com tanta frequência é provavelmente pelo fato de ser menos conhecida e não oferecer propriedades obrigatórias.
fonte