pytorch1.1 半精度训练 Adam RMSprop 优化器 Nan 问题

44 篇文章 1 订阅
33 篇文章 0 订阅

2023/4/11
该方法已过时,建议直接使用 pytorch自动混合精度。
手动 半精度不仅对模型的结构设计(例如 sqrt 函数,log函数的输入域需要限定)有很多的限制,还对Loss(模型输出会偏小,非常容易出现梯度消失)有限制。

2019/5/5更新
pytorch 1.1 版本相比1.0版本,对 half 训练优化了许多,nan发生的情况少了很多,现在应该可以日常使用 half 训练了
使用Adam优化器时,加入参数eps=1e-4

optimizer1 = optim.Adam(model.parameters(), lr=1e-3, eps=1e-4)

pytorch 半精度浮点数表示的范围比单精度的少很多

  1. 使网络输入 值域缩放到 [-1, 1] 或 [0, 1]
  2. 定义Adam优化器时,加入参数eps=1e-3
  3. 定义RMSprop优化器时,加入参数eps=1e-2
  4. 降低学习率
optimizer1 = optim.Adam(model.parameters(), lr=0.001, eps=1e-3)
optimizer2 = optim.RMSprop(model.parameters(), lr=0.001, eps=1e-2)
  • 6
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 11
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值