tf.nn.softmax_cross_entropy_with_logits
主要注意与下述接口区分
tf.nn.sparse_softmax_cross_entropy_with_logits
sparse_softmax_cross_entropy_with_logits(
_sentinel=None,
labels=None,
logits=None,
name=None
)
区别在于labels的维度为[batch_size,num_class]
两方法的结果是相同的。sparse_softmax_cross_entropy_with_logits 直接用标签上计算交叉熵,而 softmax_cross_entropy_with_logits 是标签的onehot向量参与计算。softmax_cross_entropy_with_logits 的 labels 是 sparse_softmax_cross_entropy_with_logits 的 labels 的一个独热版本(one hot version)。
one_hot 如 [0,0,0,0,1,0]只有一个为True