float 转fp16(half())调试踩坑记录

背景:

模式1. 训练阶段将barc 模型转换为fp16,以减少显存开销
模式2. 推理阶段直接将权重转换为fp16/int8

步骤

1.修改model.half()
2.加载预训练权重,修改为half

混合精度训练 FP16 O3

https://zhuanlan.zhihu.com/p/416942523

from apex import amp, optimizers
# Allow Amp to perform casts as required by the opt_level
model, optimizer = amp.initialize(model, optimizer, opt_level="O3")
...

loss.backward() becomes:

with amp.scale_loss(loss, optimizer) as scaled_loss:
scaled_loss.backward()

bug 1

RuntimeError: Input type (torch.cuda.FloatTensor) and weight type (torch.cuda.HalfTensor) should be the same
解决方案:

bug 2

torch.matmul(pose_feature, self.posedirs),
RuntimeError: expected scalar type Float but found Half

参考文档

pytoch常见错误
https://blog.csdn.net/qq_40520596/article/details/106980556

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

君宝bob

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值