论文阅读-TNNLS2021-Elastic Knowledge Distillation by Learning from Recollection

Abstract

训练过程中历史记忆中的有效信息,来帮助模型学习;recollection构建和使用;不同capacity和不同训练阶段来建立不同的recollection;similarity-based elastic KD 算法(弹性知识蒸馏);

Introduction

之前每个training epoch的输出(training history),每一个对应一个recollection; How to build a suitable recollection;
两点观点: 1. resNet-110相比resnet-20,预测的分布更接近GT, 所以小模型需要的监督信息可以弱一点(相比GT);2. 不同训练阶段需要不同的recollection,类似课程学习的思想,初期用moderately confident recollection,后期用highly confident GT,初始学习应该采用简单的task;
因此构建recollection,根据More or less peaked distribution; 使用recollection, 根据弹性地调整每个recollection的权重;
在这里插入图片描述

Conclusion

一个recollection-based training framework; Recollections are elastically collaborated together;
Key points: 自蒸馏

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值