Recentemente, encontrei tf.nn.sparse_softmax_cross_entropy_with_logits e não consigo descobrir qual é a diferença em comparação com tf.nn.softmax_cross_entropy_with_logits . É a única diferença que os vetores de treinamento yprecisam ser codificados em um ponto ao usar