tf.nn.softmax_cross_entropy_with_logits
函数原型:
tf.nn.softmax_cross_entropy_with_logits(_sentinel=None,labels=None, logits=None, dim=-1, name=None)
参数:
- logits:就是神经网络最后一层的输出,如果有batch的话,它的大小就是[batchsize,num_classes],单样本的话,大小就是num_classes
- labels:实际的标签,大小同上
作用:
- 分为两部第一步先进行softmax然后再计算交叉熵。