知识蒸馏:从入门到不放弃

        对综述论文《Knowledge Distillation: A Survey》进行了一些整理,博客涉及到的图也是来源于原论文。

1.什么是知识?

        教师网络的输出的logits,教师网络中间层的输出feature map/feature activations,不同的特征图、不同的神经元之间的关系也可以作为一种学习的知识,甚至是已经训练好的教师网络的参数也可以提供知识。读到这里,我不禁想到,神经网络浑身是宝,”万物“皆可知识!

2.知识的分类

        上面提到了这么多类型的知识,大体上分为三类:基于响应的知识,基于特征的知识,基于关系的知识。 这就是进行“分科”操作了。
更形象化的理解可以参照下图:
基于响应的知识
基于特征的知识
基于关系的知识
目前先写这些,等博主有空会加入代码和数学原理讲解,欢迎大家批评指正。

3.蒸馏的分类

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值