tf.nn.sparse_softmax_cross_entropy_with_logits
tf.nn.sparse_softmax_cross_entropy_with_logits(
logits, # shape [batch_size, num_classes]
labels, # shape [batch_size]
name=None
)
计算logits 和 labels 之间的稀疏softmax 交叉熵
度量在离散分类任务中的错误率
1)labels的条件是互斥的,也就是说,一个样本只能被分为一类,不能有其他的类别
2)api中自己有算softmax,所以输入到api的logits是没有过softmax的,即“unscaled logits”。
警告:这个操作期望无尺度化的logits, 因为它在内部高效地对logits 进行 s