在移动设备上实时执行的DNN权重修剪中缺失但令人满意的稀疏性

本文介绍了一种新的深度神经网络(DNN)权重修剪方法PCONV,它结合了结构化和非结构化剪枝的优势,实现了在移动设备上高精度和实时推理。通过模式剪枝和连接剪枝,PCONV创建了一种新的稀疏维度,既保持了精度,又提高了硬件效率。实验表明,PCONV在TensorFlow-Lite, TVM和阿里巴巴移动神经网络上分别实现了39x, 11x, 6x的加速,无精度损失。" 96475692,7968363,数据挖掘建模全解析:从目标定义到模型优化,"['数据挖掘', '算法流程', '模型构建', '数据质量分析', '对比分析']
摘要由CSDN通过智能技术生成

        本篇文章是记录的是对PCONV: The Missing but Desirable Sparsity in DNN Weight Pruning forReal-time Execution on Mobile Devices的学习。为对人工智能,深度学习等领域有兴趣的同学提供参考和学习,内容如有不当请联系作者进行改进,互相学习。

        该篇文章主要介绍了针对当前流行的剪枝手段的两个极端:结构化剪枝(精度不高,对硬件设备友好)和非结构化剪枝(精度高,对硬件设备不友好,推理消耗时间)。分析两种剪枝方案的优缺点并结合两种剪枝方案的优点,设计出在算法层面和硬件编译阶段进行优化的一种新的剪枝方案和推理优化方案,该方案能够在移动设备上实时推理。

原论文地址:《PCONV: The Missing but Desirable Sparsity in DNN Weight Pruning forReal-time Execution on Mobile Devices

摘要:在深度神经网络中模型压缩技术是一种有效的在各类平台上实现加速,深度神经网络模型剪枝是一个直接和高效的方法。当前有两种主要的修剪方式代表修剪规则的两个极端:结构化修剪--精细化剪枝能够实现高稀疏性和高精确度,但是对硬件不友好。结构化剪枝--粗粒度修剪利用了硬件效率高的结构,但当修剪率很高时,准确性会下降。针对以上文章提出了PCONV-一种新的稀疏维度压缩方案------粗粒度修剪结构中的细粒度模式剪枝。PCONV结合了两种稀疏类型,由内部

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

92年的研究员

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值