pytorch损失函数的值过大

最近上手pytorch,搭了一个3D版本的Alexnet模型用于对医学图像简单的进行分类,期间又踩了一个坑,损失函数的loss值在第二步就飙到了好几万,查了好几天也没查到为啥,最初是以为图像预处理部分的问题,(图像归一化方式不正确),后来发现是优化器的坑。

最初用的优化器是adam,(甚至我还想试试Nadam,可惜截至2021.7.7,pytoch好像没实现这个),然后损失函数的值就成了下面这样(真感人):

后来看了个知乎链接(链接如下),说图像领域的优化器最好是选择sgd+动量,试了下,结果发现还真有效:

链接:

https://www.zhihu.com/question/315772308/answer/1636730368

损失值:

当然不要在意我这感人的准确率,我这从头开始训练的(没有加载预训练权值),据说这种现象是正常的。

参考链接:https://www.zhihu.com/question/315772308/answer/1636730368

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值