tf.nn.sparse_softmax_cross_entropy_with_logits &tf.nn.softmax_cross_entropy_with_logits


两个函数的区别
两个函数虽然功能类似,但是其参数labels有明显区别。tf.nn.softmax_cross_entropy_with_logits()中的logits和labels的shape都是[batch_size, num_classes],而tf.nn.sparse_softmax_cross_entropy_with_logits()中的labels是稀疏表示的,是 [0,num_classes)中的一个数值,代表正确分类结果。即sparse_softmax_cross_entropy_with_logits 直接用标签计算交叉熵,而 softmax_cross_entropy_with_logits 是标签的onehot向量参与计算。softmax_cross_entropy_with_logits 的 labels 是 sparse_softmax_cross_entropy_with_logits 的 labels 的一个one hot version。
 

总之:

tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=y_) logits 和labels大小相同,且都是one hot形式
tf.nn.sparse_softmax_cross_entropy_with_logits(logits=logits, labels=y_)   logits 的长度需要比 labels 多一维,就可以了

 

 

 

 

 

http://maaiguo.com/ai/tensorflow-valueerror_342.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值