【distill.&transfer】Deep Face Recognition Model Compression via Knowledge Transfer and Distillation

论文链接:https://arxiv.org/abs/1906.00619

作者的动机:

本篇文章提出了一种对人脸识别模型压缩的方法:基于student-teacher paradigm 的脸部识别运用;模型加速是通过降低输入图像的精度,使用相同的网络结构,从而使模型参数不减少,由于图像尺寸减少,数据储存空间也随之减少,整体架构图:

作者提出的方法:

作者使用了三种方法来提升输入低精度图像模型的性能:

1)via knowledge transfer(KT)

2)via knowledge distillation (KD)

3)via their combination


KD paradigm:在全局尺化层抽取特征,进行特征匹配,使用两个loss函数,一个loss函数是 normal classification loss,另一个是feature matching loss。

KT paradigm:使用teacher model 参数初始化student model,使用分类loss进行模型训练;

combine KD and KT:combine above two paradigm;

文中使用的loss函数:

teacher网络使用的loss函数:

student网络使用的loss函数:

 特征匹配使用的loss函数为:

Ls = (2)式+(3)式

作者对这loss进行组合使用:

作者使用了两种网络结构进行了模型训练:Inception-BN,100-layer deep residual architecture;

作者使用的训练样本:MS1M   测试数据集:LFW,IJB-C

自己的结论:该方法更加适用于提升一个模型的性能;

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

猫猫与橙子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值