损失函数一直在波动_炼丹笔记—模型训练损失不收敛解决方案

本文介绍了深度学习模型训练中遇到的损失函数波动和不收敛问题,包括loss值恒定在特定数值和在一定范围内振荡的情况。分析了可能的原因,如梯度爆炸,并提出解决方案,如数据归一化和批次标准化。同时推荐了一系列深度学习相关的阅读材料。
摘要由CSDN通过智能技术生成
cb2a4b401bc7a75ba58d06f87ce3fa0e.gif点击蓝字关注我们

AI研习图书馆,发现不一样的世界

炼丹笔记

深度学习炼丹笔记一

一、问题引入

常见问题1: loss等于87.33,居高不降

329aa6c497c42907142d9b7f80162f89.png

如上图所示,在开始训练后, loss升高到87.3365后保持不变。这个问题是因为梯度爆炸导致的。

loss -= log(std::max(prob_data[i * dim + label_value * inner_num_ + j],                     Dtype(FLT_MIN)));

loss等于87.33这个问题,对一些常见分类网络,不管是fine-tuning还是train的时候都会遇到,无论网络迭代多少次,网络的loss一直保持恒定。

查阅相关资料以后发现,在softmax_loss_lay

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值