Knowledge Distillation(3)——A Gift from Knowledge Distillation

A Gift from Knowledge Distillation:Fast Optimization, Network Minimization and Transfer Learning 论文阅读

概述

上一篇博客中的FitNets,本文作者是这么分析的:
在这里插入图片描述
作者打了个比方,对于人类,老师教学生做题时,一个中间的结果并不重要,我们更应该学习的是解题流程。
这也是本文的核心idea,不拟合大模型的输出,而是去拟合大模型层与层之间的关系,这才是我要转移和蒸馏的知识!

Method

这个关系是用层与层之间的内积(点乘)来定义。假如说甲层有 M 个输出通道,乙层有 N 个输出通道,就构建一个 M*N 的矩阵来表示这两层间的关系。
其中 (i, j) 元是甲层第 i 个通道和 乙层第 j 个通道的内积(因此此方法需要甲乙两层 feature map 的形状相同):
在这里插入图片描述
这样每两个层之间就可以得到一个代表knowledge的矩阵FSP:
在这里插入图片描述
FSP可以类比成一个解体流程和方法,因而又定义了一个loss:
在这里插入图片描述
这样student就可以来学习teacher的这个流程,也就是一些层间关系的量化指标FSP:
在这里插入图片描述

训练过程

训练的第一阶段:最小化教师网络FSP矩阵与学生网络FSP矩阵之间的L2 Loss,用来初始化学生网络的可训练参数。
训练的第二阶段:在目标任务的数据集上fine-tune学生网络。从而达到知识迁移、快速收敛、以及迁移学习的目的。

总结

这篇文章的做法不是直接学结果,而是学习得到这种结果的方法和过程,是一个不错的思路。
毕竟,授以鱼不如授以渔。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值