英伟达网络:硬件感知网络转化,加速硬件上部署(附源文件)


计算机视觉研究院专栏

作者:Edison_G

给定一个训练有素的网络,我们如何加速它以满足在特定硬件上部署的效率需求?

公众号ID|ComputerVisionGzq

学习群|扫码在主页获取加入方式

关注并星标

从此不迷路

计算机视觉研究院

1

 前言

给定一个训练有素的网络,我们如何加速它以满足在特定硬件上部署的效率需求?常用的硬件感知网络压缩技术通过修剪、核融合、量化和降低精度来解决这个问题。

但是,这些方法不会改变底层网络操作。在今天分享中,研究者提出了硬件感知网络转换 (HANT),它通过使用类似神经架构搜索的方法用更有效的替代方法替换低效操作来加速网络。HANT分两个阶段解决这个问题:在第一阶段,使用逐层特征图蒸馏训练教师模型每一层的大量替代操作。在第二阶段,将有效操作的组合选择放宽到可以在几秒钟内解决的整数优化问题。

通过内核融合和量化扩展了HANT,以进一步提高吞吐量。研究者对EfficientNet系列加速的实验结果表明,HANT可以将它们加速高达3.6倍,而ImageNet数据集的top-1精度下降<0.4%。在比较相同的延迟水平时,HANT可以将EfficientNet-B4加速到与EfficientNet-B1相同的延迟,同时准确度提高3%。

2

 背景

在许多应用程序中,我们可能可以访问在准确性方面满足所需性能需求的神经网络,但是,部署的计算成本太高。硬件感知网络压缩的目标是降低在实际应用中部署深度神经网络的运营成本、功耗和环境影响方面发挥着关键作用。

当前的网络压缩技术可以分为:(ⅰ)修剪,消除非活性神经元,(ⅱ)编译时优或内核融合,结合多个操作成等效操作,(iii)降低精度的量化,以及(iv)知识提炼,将知识从较大的教师网络提炼到较小的学生网络中。(i) 到 (iii) 中的方法仅限于底层网络操作,它们不会改变架构。知识蒸馏将网络架构从教师转变为学生,但是学生架构搜索由于手动设计需要领域知识和多次迭代。

为了以高效且可扩展的方式解决具有大量候选操作的搜索问题,研究者提出了一种两阶段的方法。在第一阶段,定义了一个大的操作池,从经典的残差块到更新的转换器类型块,例如在 [dosovitskiy2020image] 中使用的具有不同超参数的操作。对于教师的每一层,研究者使用一个简单的逐层损失函数来训练所有候选操作,该函数鼓励候选者模仿教师的层;这可以在一个时期内快速并行完成。

3

 新框架

新提出的方法通过知识蒸馏引导的预训练阶段降低了重复多目标搜索的成本,然后是一种廉价的神经架构搜索方法。最近有几项工作共享研究者方法的共同元素,在上表中进行了比较。

候选预训练阶段:最小化教师操作ti的输出和每一层s上每个学生操作的输出之间的MSE损失,其中每个操作的输入是前一层的教师输出。

架构搜索:研究者在查找表中估计并记录网络准确性和延迟的降低,因为用其中一个学生操作替换教师操作。然后研究者应用整数规划来最小化精度降低,同时实现目标延迟降低。

4

 实验

研究者将HANT应用于EfficientNet模型系列。

实施细节。 从TensorFlow存储库中导入现成的预训练模型和权重作为教师模型。只有ImageNet-1K数据集用于预训练、候选评估和微调。在第二阶段找到架构后,使用开箱即用的timm package,其参数与EfficientNet训练相匹配,以对所选架构进行100次微调。对于预训练,使用4个V100 GPU,为了微调32个V100 GPU,所有训练都在PyTorch中以FP16模式完成。

EfficientNets optimized for CPU

B2 selected ops

B4 selected ops

Final architectures selected by HANT as EfficientNet-B2/B6 derivatives

Final architectures selected by HANT as EfficientNet-B4 derivatives

© THE END 

转载请联系本公众号获得授权

计算机视觉研究院学习群等你加入!

计算机视觉研究院主要涉及深度学习领域,主要致力于人脸检测、人脸识别,多目标检测、目标跟踪、图像分割等研究方向。研究院接下来会不断分享最新的论文算法新框架,我们这次改革不同点就是,我们要着重”研究“。之后我们会针对相应领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!

扫码关注

计算机视觉研究院

公众号ID|ComputerVisionGzq

学习群|扫码在主页获取加入方式

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

计算机视觉研究院

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值