知识蒸馏经典论文详解

蒸馏论文一(knowledge distillation):利用soft target
在这里插入图片描述
蒸馏论文二(Attention Transfer):利用注意力图
在这里插入图片描述
蒸馏论文三(Similarity-Preserving):利用特征图内在相似性
在这里插入图片描述
蒸馏论文四(Relational Knowledge Distillation):利用样本间距离/角度差异
在这里插入图片描述
蒸馏论文五(Neuron Selectivity Transfer):利用教师网络中间层神经元的激活分布
在这里插入图片描述
蒸馏论文六(Probabilistic Knowledge Transfer):利用特征向量分布概率信息
在这里插入图片描述
蒸馏论文七(Variational Information Distillation):利用互信息

在这里插入图片描述

蒸馏论文八(分类蒸馏论文八篇)

  1. Be Your Own Teacher: Improve the Performance of Convolutional Neural Networks via Self Distillation
    在这里插入图片描述
  2. MSD: MULTI-SELF-DISTILLATION LEARNING VIA MULTI-CLASSIFIERS WITHIN DEEP NEURAL NET- WORKS
    在这里插入图片描述
  3. FEED: Feature-level Ensemble for Knowledge Distillation
    在这里插入图片描述
  4. Adaptive Multi-Teacher Multi-level Knowledge Distillation
    在这里插入图片描述
  5. Deep Mutual Learning
    在这里插入图片描述
  6. Training convolutional neural networks with cheap convolutions and online distillation
    在这里插入图片描述
  7. Cascaded channel pruning using hierarchical self-distillation
    在这里插入图片描述
  8. Cascaded channel pruning using hierarchical self-distillation
    在这里插入图片描述

其他:
目标检测论文解读四(检测蒸馏论文三篇)

  1. Mimicking Very Efficient Network for Object Detection
    在这里插入图片描述
  2. General Instance Distillation for Object Detection (2021.4)
    在这里插入图片描述
  3. Multi-Scale Aligned Distillation for Low-Resolution Detection
    在这里插入图片描述
  • 4
    点赞
  • 41
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值