定点 浮点 神经网络 量化_【紫冬报告】程健:深度神经网络加速与压缩

dfa360ca99ba3640c847d1222d3c25c8.png CASIA 点击蓝字关注我们↑↑↑↑

77f31ef6db39d922dbd1d035a9dcc201.png

今日聚焦

中科院自动化所程健研究员从背景沿革、技术分类、发展历程、具体应用、未来趋势等多方面详细介绍2017-2018年深度神经网络加速与压缩领域的关键研究进展。

郑板桥《赠君谋父子》诗言:“删繁就简三秋树,领异标新二月花”,意谓画作兰竹时要去其繁杂使之趋于简明,而针对不同意境则要发散引申、从而实现创新。在人工智能领域,深度神经网络的设计便如同绘制枝蔓繁复的兰竹,需要对其删繁就简;将其拓展至不同应用场景则如同引申意境,需要创新算法的支撑。

08645130160a1ac74a81b48b5f79b1d3.png

图片来自网络

1946年,世界上第一台通用计算机“恩尼亚克”诞生;七十余年后的今天,计算机不仅体积大为缩减,计算能力也极大提升。然而随着深度学习的崛起,计算设备可集成算法的能力边界也在不断拓展,当前我们仍面临着巨大计算量和资源消耗的压力。

深度神经网络作为目前人工智能的基石之一,其复杂性及可移植性直接影响着人工智能在生活中的应用,因此,学术界展开了深度网络加速与压缩领域的研究。

今天,来自中科院自动化所的程健研究员,将向大家介绍过去一年中深度神经网络加速与压缩方面的研究进展。(文末附上参考文献的下载链接)

13d0dd9f14712ffbad762865eb4f5814.png

  背景  

首先,我们来了解一下常用卷积神经网络的计算复杂度情况。

e9380fcd6d3b6e79e3abc8455446893f.png

从上表可以看出,近年来网络层数越来越多,计算复杂度越来越高。过高的计算复杂度通常要求我们使用GPU或者高性能的CPU对神经网络进行运算。实际上,在深度学习应用的过程中,我们还面临很多如移动设备、嵌入式设备这样存在计算、体积、功耗等限制的设备,而这些约束导致现有的高性能深度神经网络无法在这些设备上进行有效的计算和应用。

eddb6de028f9d553f0f0dae6f269c196.png

这给我们提出了新的挑战:保持现有神经网络性能基本不变的情况下,如何大幅减小网络计算量、大幅削减网络模型存储,才能使得网络模型在资源受限的设备上高效运行。这正是我们做深度神经网络加速、压缩的基本动机。

加速与压缩技术分类简介

加速和压缩本身并不是同一件事,但通常情况下我们往往同时做加速和压缩,且二者都会给网络计算带来收益,因此我们今天把它们放在一起来讲。

网络加速与压缩技术据采用方法的不同大致可分为Low-Rank 、Pruning、Quantization、Knowledge Distillation等。目前存在很多体积较小、性能不错的紧致网络,其架构设计过程中也含有很多网络加速压缩的基本思想,因此我们今天也将Compact Network Design作为网络加速和压缩方法的一种来介绍。

4f3686970af8041fcd4489f0948a89c8.png

会议论文分布

我们对2017年和2018年目前发表在国际顶会上有关网络加速和压缩的论文做了统计。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值