知识蒸馏论文读书笔记

突然觉得,我应该做一点笔记,梳理一下学过的东西,否则年一过,整个人就跟失忆了一样。
知识蒸馏这个名字非常高大上(不得不说大佬不仅想法清新脱俗,名字也起的情形脱俗啊)。如果直白地说老师学生模型,那就不酷了。
下面是论文的总结梳理,

第一次尝试-Model Compression

在2015年hinton 的知识蒸馏文章发表出来之前,就有人尝试过让一个小模型去学习一个大模型的表现,以期能够达到与大模型等同的性能。
这篇文章的标题就叫“Model Comperssion”,是2006年的文章,大家都还在用CPU训练模型,不会有什么很大的神经网络是需要大家去压缩。这里的需要被压缩的“Model”是一个集成学习的模型。
作者在文中提到的压缩集成学习模型的目的与现在压缩神经网络的原因如出一辙。

集成模型往往体积大且运算缓慢,这使得集成学习算法在面对低内存,低空间(应该是硬盘),低运算能力,以及实时性要求高的场景下比较无力。

模型压缩的流程也比较类似。

  1. 用训练数据训练 D 1 D_1 D1集成学习模型 T T T
  2. 用MUNGE算法生成无标签数据,将无标签数据作为 T T T的输入,得到相应的标签得到人工数据集 D 2 D_2 D2
  3. 用人工数据集 D 2 D_2 D2训练神经网络模型 S 1 S_1 S1
  4. 用原始数据 D 1 D_1 D1训练神经网络模型 S 2 S_2 S
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值