Para duas distribuições discretas e q , a entropia cruzada é definida como
Eu me pergunto por que isso seria uma medida intuitiva de distância entre duas distribuições de probabilidade?
Vejo que é a entropia de p , que mede a "surpresa" de p . H ( p , q ) é a medida que substitui parcialmente p por q . Ainda não entendo o significado intuitivo por trás da definição.
probability
distributions
cross-entropy
Kadistar
fonte
fonte
Respostas:
Minimizar a entropia cruzada é frequentemente usado como objetivo de aprendizado em modelos generativos, em que p é a distribuição verdadeira e q é a distribuição aprendida.
A entropia cruzada de p e q é igual à entropia de p mais a divergência de KL entre p e q.
Observe que a divergência de KL não é uma métrica de distância adequada. Por um lado, não é simétrico em peq. Se você precisar de uma métrica de distância para distribuições de probabilidade, precisará usar outra coisa. Mas, se você estiver usando a palavra "distância" informalmente, poderá usar a divergência KL.
fonte