VALSE 2017 | 神经网络模型压缩优化方法

本文介绍了VALSE 2017大会上关于深度神经网络模型压缩、加速和优化的研究,涉及孙剑、程健和颜水成等专家的报告。重点探讨了结构剪枝、低秩分解、权值量化等方法,旨在减少模型参数,降低计算量,以适应移动端应用需求。
摘要由CSDN通过智能技术生成

本文 首发在个人微信公众号:计算机视觉life上。


近年来,深度神经网络在计算机视觉、语音识别等领域取得了巨大成功。为了完成更加复杂的信息处理任务,深度神经网络变得越来越深,也使得其计算量越来越大。然而,手机、车载等移动端应用对深度神经网络的需求越来越多,因而深度神经网络模型的压缩、加速、优化变的越来越重要。这也是本届VALSE的热点之一。


深度学习算法是计算密集型和存储密集型的,这使得它难以被部署到资源有限的嵌入式系统上。优化一般有以下两个方向:


1、通过减少参数数量,达到模型压缩的目的。而压缩基于一个很重要的理论,即神经网络模型通常是过参数化的,也就是说,我们通常不需要那么多参数 就可以表达出模型特征。


2、通过节省计算,降低计算量,达到模型运算加速的目的。


今年的VALSE大会上,关于神经网络模型的压缩、加速、优化主要有如下几个报告:


1、原微软亚洲研究院首席研究员、旷世科技研究院院长孙剑,介绍了旷视科技在网络模型加速和压缩方面的工作。


2、中科院自动化研究所模式识别国家重点实验室研究员人工智能与先进计算联合实验室主任程健,作了“深度神经网络快速计算方法”的tutorial。


3、新加坡国立大学教授、360人工智能研究院院长颜水成教授作了“深度学习的三个维度:Compactness,Speed, and Accuracy”的特邀报告。


评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值