pytorch模型加速

一个关键的原则:”仅仅在权重更新的时候使用fp32,耗时的前向和后向运算都使用fp16.",其中的一个技巧是,在反向计算开始前,将dloss乘上一个scale,人为变大,权重更新前,除去scale,恢复正常值。目的是为了减小激活gradient下溢出的风险。

fp16:半精度

如何在pytorch中使用fp16混合精度训练呢?

nn.Module中的half()方法将模型中的float32转化为float16,实现的原理是遍历所有tensor,而float32和float16都是tensor的属性,也就是说,一行代码解决,如下

model.half()

总结:

1、深度学习训练使用16bit表示/运算正逐渐成为主流。

2、低精度带来了性能、功耗优势,但需要解决量化误差(溢出,舍入)

3、常见的避免量化误差的方法:为权重保持高精度fp32备份,损失放大,避免梯度的下溢出,一些特殊层(如batchnorm)仍使用fp32运算。

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值