边缘智能计算相关知识

模型压缩

使用原因 深度学习因其计算复杂并且参数冗,在一些场景和设备上限制了相应模型的部署,需要借助模型压缩、优化加速、异构计算等方法突破瓶颈。
优势 模型压缩算法能够有效降低参数冗余,从而减少存储占用、通信带宽和计算复杂度,具体可分为以下三种方法:

  1. 线性或非线性量化:1/2bits,int8,fp16等;
  2. 结构或非结构剪枝:deep conmpression,channel pruning,network slimming等;
  3. 其他:权重矩阵的低秩分解,知识蒸馏等。

模型压缩方法总览

  1. 低秩分解:矩阵分解的技术已经非常成熟了,近些年已经不再流行了,原因在于现在越来越多的网络中采用1*1的卷积,而这种小的卷积使用矩阵分解的方法很难实现网络加速和压缩。
  2. 网络剪枝:其主要思想在于将权重矩阵中相对“不重要”的权值剔除,然后再重新fine tune网络进行微调。
    广义上的剪枝包括:①正则化:修改目标函数/学习问题,优化后可能会得到一个参数较少的神经网络。②修剪:面向大规模神经网络,并删除某些意义上大规模的特征或参数。③增长:从小型网络开始,按某种增长标准逐步增加新的单元。
  3. 知识蒸馏
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值