深度学习基础--不同网络种类--teacher-student网络,蒸馏(distillation)网络

teacher-student网络,蒸馏(distillation)网络

  属于迁移学习的一种。迁移学习也就是将一个模型的性能迁移到另一个模型上, 对于教师——学生网络,教师网络往往是一个更加复杂的网络,具有非常好的性能和泛化能力,可以用这个网络来作为一个soft target来指导另外一个更加简单的学生网络来学习,使得更加简单、参数运算量更少的学生模型也能够具有和教师网络相近的性能,也算是一种模型压缩的方式。

学习过程

  学生网络的训练含有两个目标:一个是hard target,即原始的目标函数,为小模型的类别概率输出与label真值的交叉熵;另一个为soft target,为小模型的类别概率输出与大模型的类别概率输出的交叉熵。
在这里插入图片描述

改进版本

  来自《Paying More Attention to Attention: Improving the Performance of Convolutional Neural Networks via Attention Transfer》
  原来的方法有distillation,就是说希望输出的softmax要类似。这篇文章说,我不仅要softmax类似,我要当中的attention map也要类似。attention map他这里是用gradient来定义的。
  借鉴Distilling的思想,使用复杂网络中能够提供视觉相关位置信息的Attention map来监督小网络的学习,并且结合了低、中、高三个层次的特征。
在这里插入图片描述

具体

  教师网络从三个层次的Attention Transfer对学生网络进行监督。
  其中,“三个层次”对应了ResNet中三组Residual Block的输出。这三个层次的Attention Transfer是基于Activation的,即Activation Attention就是feature map在各个通道上的值求和。

  • 2
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值