4-机器学习进阶-神经网络压缩

在这里插入图片描述类似人脑的神经
在这里插入图片描述
裁剪权重还是神经元,裁剪不重要的,权重是否重要看大小即可,直接计算权重的L1或者L2,因为是向量
神经元的判断,就看他的输出是否为0,为0代表这个神经元不重要
在这里插入图片描述
逐步裁剪,逐步重新训练达到最佳,最终就是效率和准确率的一个平衡
在这里插入图片描述
大的好训练,所以先训练个大的,才裁剪,大不容易陷入局部最优
在这里插入图片描述权重删减会导致不规则,GPU矩阵运算不好加速
只是把对应的weight的值设置为0,实际上上weight还在,模型生成的大小仍然是一样的。所以一般是删除神经元
在这里插入图片描述
删除神经元是比较容易加速的
在这里插入图片描述
先集成在蒸馏,能学到更加丰富的知识,不单单知道硬编码,还知道百分数,还知道更其他的哪个数字更像,比如1跟7像,这样学习即使没看过一些数据也能学习出来
在这里插入图片描述
引入参数T,学习更多的信息,其实就是做一个缩放,比较大的,然输出的值别太分散,变成硬编码,互相之间比较靠近的软编码蕴含更丰富的信息

在这里插入图片描述
聚类用均值代替
在这里插入图片描述
不做梯度更新,而是更新后取最靠近的+1或者-1,量化的极限,效果可能还有上升

在这里插入图片描述
矩阵分解,减少参数 M X N >> M X K + K X V
在这里插入图片描述
在这里插入图片描述
图像的卷积运算也是一样的有点类似再中间拆入一层,正常的一个卷积核其实输入的缩小版,输入是几个通道,这一个卷积核就是几个通道。这个的本质就是把第一层的卷积核只管某一个通道
在这里插入图片描述
这个就是相差的倍数 O一般比较大,由K决定

MobileNet就是这个原理
在这里插入图片描述
训练一个大的模型,取其中某个层的输出,当做输出,节省空间的目的
但是近的是通用特征,不能打乱了,如果加一个分类,会破坏浅层的特征,强迫浅层去学习深层的特征,打破平衡
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值