Mixed-precision(混合精度训练)

本文探讨混合精度训练在深度学习中的应用,旨在降低模型训练的显存占用并加速训练过程,同时保持模型精度。介绍了FP32主副本权重、损失缩放和BN处理等关键概念,并分析了它们如何解决训练中的精度问题。
摘要由CSDN通过智能技术生成

混合精度训练

最近刚好在做相关工作,所以花点时间对混合精度进行模型训练进行一下理解与总结.详细数据请参考百度与nvidia联合放在arxiv上的论文:https://arxiv.org/pdf/1710.03740.pdf

概述

深度学习模型的计算任务分为训练和推理.训练往往是放在云端或者超算集群中,利用GPU强大的浮点计算能力,来完成网络模型参数的学习过程.一般来说训练时,计算资源往往非常充足,基本上受限于显存资源/多节点扩展/通讯库效率的问题.相对于训练过程,推理往往被应用于终端设备,如手机,计算资源/功耗都收到严格的限制,为了解决这样的问题,提出了很多不同的方法来减少模型的大小以及所需的计算资源/存储资源.模型压缩除了剪枝以外,还有一个方法就是降低模型参数的数值精度.随着网络深度的加大,带来的参数数量也呈现指数级增长,如何将最终学习好的网络模型塞入到终端设备有限的空间中是目前很多性能优良的网络真正应用到日常生活中的一大阻碍.
本文主要讨论如何降低模型训练时的数值精度来加速训练过程.现在的模型训练过程基本上使用单精度和双精度,如果网络模型很大,那么受限于显存空间(最新的volta 100是16G),batch size就会非常小.

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值