tf.nn.softmax_cross_entry_with_logits与tf.nn.sparse_softmax_cross_entroy_with_logits的区别

1. tf.nn.softmax_cross_entry_with_logits

NOTES:

其中,logits和labels必须是相同的shape和数据类型都必须相同,例如one-hot的形式,或者类one-hot的形式(当然结果没有one-hot那么明显)

2. tf.nn.sparse_softmax_cross_entroy_with_logits

NOTES:

这个就没有那么容易理解了,先举个例子吧
labels=[2,1]
如果用one-hot表示就是:
labels=[[0,0,1],[0,1,0]]
我们可以看到,这种编码方式降了维,注意这种分类是从0开始的,但是如果用这种编码的方式的话,我们就无法使用上面的这种方式,所以我们需要创建一种新的方式来处理这个问题,就是这样的来源。
所以,此时labels与logits的shape不相同。

3 还要注意一点就是,

计算交叉熵时,不论是使用sigmoid_cross_entropy_with_logits或者使用两种的时候,他都是将最后一步的激活函数也包括进去了,所以我们在最后输出的时候,不要使用过激活函数的输出

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值