知识蒸馏

背景:

深度神经网络在计算机视觉任务中取得了优异的表现,然而受限于计算机能力或实时的需求,在一些小型设备上(嵌入式设备),这些模型规模庞大的网络无法直接部署。
知识蒸馏是将复杂模型(教师模型)中学到的知识迁移到简单模型(学生模型)中去,期望简单模型能够逼近或超过复杂模型的表现。

相关工作:
2015 Distilling the Knowledge in a Neural Network(Hinton)
硬标签(hard target):真实的标签
软标签(soft target):教师网络中输出的标签。与硬标签相比带有更多的信息,比如卡车0.9汽车0.1,同时软标签可以防止学生网络中的过拟合

在softmax中增加了温度参数T,通过增加T可以得到更加平滑的概率分布,使得学生模型能够得到更好的泛化能力。(比如学生模型中未训练的一些信息也能得到一定的学习,在学生模型的训练数据中剔除3,在测试3的的正确率时同样能够得到一定的效果)
在这里插入图片描述Loss计算是将软标签与硬标签一起训练
Loss=aL(soft)+(1-a)L(hard)

在训练软标签时需要乘上T**2

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值