剪枝
剪枝
GaleZhang
这个作者很懒,什么都没留下…
展开
-
论文笔记:An Efficient Hardware Accelerator for Structured Sparse Convolutional Neural Networks on FPGAs
An Efficient Hardware Accelerator for Structured Sparse Convolutional Neural Networks on FPGAs Abstract 深度卷积神经网络(CNN)在广泛的应用中都实现了最先进的性能。但是,复杂的人工智能(AI)任务广泛需要更复杂的更深的CNN模型,这些模型通常对算力的要求极高。尽管最近在网络压缩方面的研究进展(例如剪枝)已经显著减轻了硬件设备的计算负载,但是由于剪枝引起的不规则性,仍然无法阻止现有的加速器充分利用稀疏性的翻译 2020-10-23 15:18:44 · 1310 阅读 · 0 评论 -
Scalpel: 根据基础硬件并行化定制DNN剪枝
Scalpel: 根据基础硬件并行化定制DNN剪枝 0 摘要 随着深度神经网络(DNN)的规模不断增长以提高准确性并解决更复杂的问题,其能耗也会随之扩大。权重剪枝通过删除多余权重来减少DNN模型的大小和计算量。但是,我们在各种硬件平台上对几个流行的网络实施了权重剪枝,并观察到令人惊讶的结果。对于许多网络,尽管模型尺寸大大减小并且需要进行多次累加操作,但由于权重剪枝导致的网络稀疏实际上会损害整体性能...翻译 2020-01-02 16:04:31 · 749 阅读 · 0 评论 -
Auto Pruner
Auto Pruner 0 Abstract 通道剪枝是加快深度模型推断的重要方法。以前的卷积核剪枝算法将通道修剪和模型微调视为两个独立的步骤。本文认为,将它们组合为一个端到端的可培训系统将带来更好的结果。我们提出了一个有效的通道选择层,即Auto Pruner,以联合训练的方式自动查找不太重要的卷积核。我们的Auto Pruner将以前的激活响应作为输入,并生成用于剪枝的真实二进制索引代码。因此...翻译 2019-12-16 13:47:10 · 412 阅读 · 0 评论 -
AMC:AutoML for Model Compression
AMC:AutoML for Model Compression 0 Abstract 模型压缩是一种在移动设备上高效部署神经网络模型的关键技术,移动设备仅有有限的计算资源和紧凑的功率预算。常规的模型压缩技术依靠手工制作的启发式方法和基于规则的策略,这些策略要求领域专家探索在模型大小,速度和准确性之间进行权衡的大型设计空间,这通常是次优且耗时的。在本文中,我们提出了用于模型压缩(AMC)的Auto...翻译 2019-12-16 13:31:46 · 1347 阅读 · 0 评论