torch常用损失函数使用心得

本文详细介绍了PyTorch中nn.CrossEntropyLoss函数的使用,强调了其内部已包含softmax和log操作,因此在使用时不应再进行额外激活。同时,文章提到了标签label的输入要求,包括无需one-hot编码、必须是一维tensor以及需要为long型数据。这些细节对于正确使用该损失函数并避免精度下降至关重要。
摘要由CSDN通过智能技术生成

torch的交叉熵函数坑点

nn.CrossEntropyLoss(pred,label)
该模块提供的交叉熵函数

第一个参数注意点

该函数已经帮我们做了softmax操作和log操作
所以针对预测值pred我们只要输入对应的原始值
即我们只需要输入对应的线性层输入,并不需要激活,否则精度会大大下降。

第二个参数注意点

1、 label标签值 我们不需要做one-hot编码 输入原始编号即可
2、label只支持一维tensor 也就是说一次batch-size训练中有[batch-size,1]数据 我们需要把label变为[batch-size]的一维label
3、第二个参数只能接收long型数据

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值