轻量化综述(待补充)

轻量化途径:

(1)减少内存读写,方法:减少参数量、权重量本身,减少feature map(中间层的输出结果)

(2)内存的读写规则:结构化剪枝(整行整列整通道整channel甚至整层的剪枝,内存读写就是规则的),非结构化剪枝(在feature map中直接进行剔除,这样内存读写就是不规则的)

(3)加速矩阵运算

考虑:参数量、计算量、内存访问量、 耗时、能耗、碳排放、 CUDA加速 、对抗学习    

轻量化分类(把模型部署在终端边缘计算,实时推理) 

一、模型瘦身:知识蒸馏  权值量化  剪枝(权重剪枝、通道剪枝)注意力迁移

(1)知识蒸馏:有一个大的模型可以看成是老师模型,去训练一个小的模型可以看成是学生模型,小模型不断深入模仿大模型,实现模型压缩和部署

(2)模型量化(权重量化):训练参数的话通常是在一些提供的模型上(Pytorch、TensorFlow)训出来大量几百万的参数(模型的权重)的数据类型都是flow32,会占一定内存,我们通过一种优化手段将这种数据格式量化为占用内存更小,便于计算的数据类型比如说int8这种格式,提高了推理的时间从而提升预测的效率。在同一层之间权重共享,不同层的权重分别进行聚类。原因在于:同一层的权重之间以“求和”的方数进行连接,不同层的权重用“相乘”的方式进行连接,不同层之间还有激活函数、归一化函数等等。

(3)剪枝:去掉多余枝干,保留有用枝干。分为权重剪枝和通道剪枝,也叫结构化剪枝和非结构化剪枝,整层整层的剪叫结构化剪枝,一根树杈一根树杈的剪叫非结构化剪枝。

二、轻量化模型:在设计时就考虑哪些算子哪些设计是轻量化的,SqueezeNet、MobileNet(v1、v2、v3)、ShufleNet(v1、v2) 、Xception、 EfficientNet 、EfficientDet、NasNet 、Mnasnet、DARTS(按年份排序)
三、加速卷积运算:卷积网络主要是基于矩阵的计算,可以通过一些手段或加速库去提升卷积的计算。im2col+ GEMM、Winograd、低秩分解
四、硬件部署:TensorRT 、Jetson、Tensorflow-Slim、Tensorflow-Lite、Openvino、FPGA集成电路

红字待补充

  • 10
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值