参数等效模型可以用于_模型推理加速技巧:融合BN和Conv层

本文探讨了如何在模型推理过程中利用参数等效模型加速深度学习模型,特别是将Batch Normalization (BN) 层与卷积层融合,以减少计算时间和提高效率。在测试阶段,BN层可以等效替换为1x1卷积层,并进一步与前一层的Conv层合并,形成新的卷积层。通过PyTorch实现代码展示了这一融合过程,证实了融合后的等效性和速度提升。
摘要由CSDN通过智能技术生成

码字不易,欢迎给个赞!

欢迎交流与转载,文章会同步发布在公众号:机器学习算法工程师(Jeemy110)


很多深度模型采用BN层(Batch Normalization)被很多深度模型来提升泛化能力。在模型推理时,BN层要从训练状态切换到测试状态,此时采用模型训练中近似的均值和方差。BN层最酷的地方是它可以用一个1x1卷积等效替换,更进一步地,我们可以将BN层合并到前面的卷积层中。

Batch Normalization

这里假定

是网络的某一激活层特征,我们要对其进行归一化。若模型训练batch中共有
个样例,其特征分别是
,我们采用下列公式进行归一化:
这里
为这个batch上计算得到的均值和方差(在B,H,W维度上计算,每个channel单独计算),而
防止除零所设置的一个极小值,
是放缩系数,而
是平移系数。在训练过程中,
and
在当前batch上计算:

而参数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值