《Structured Knowledge Distillation for Semantic Segmentation》论文阅读笔记

《Structured Knowledge Distillation for Semantic Segmentation》论文阅读笔记

作者:Yifan Liu, Ke Chen,Chris Liu,Zengchang Qin,Zhenbo Luo,Jingdong Wang
论文链接:https://openaccess.thecvf.com/content_CVPR_2019/papers/Liu_Structured_Knowledge_Distillation_for_Semantic_Segmentation_CVPR_2019_paper.pdf
GitHub地址:https://github.com/irfanICMLL/structure_knowledge_distillation

介绍

文章提出一种利用大型网络训练小型语义分割网络的知识蒸馏策略。
主要贡献包括:
1.研究了知识蒸馏策略,有助于训练小型的语义分割网络,提升精度;
2.提出了两种结构化知识蒸馏方法:成对蒸馏(pair-wise distillation)和整体蒸馏(holistic distillation)。

方法

1. 像素蒸馏(Pixel-wise distillation)
将分割问题看作是一组独立像素分类问题的集合,直接使用知识蒸馏来对齐teacher网络和student网络中每个像素的类别概率,即将从teacher中得到的类别概率作为软目标来训练teacher网络。

2. 成对蒸馏(Pair-wise distillation)
受到被广泛采用的改善空间标记连续性的成对马尔可夫随机场框架的启发,作者提出转换这种成对的关系。论文的实现的方法是转换像素之间的成对相似性。具体来说,即分别计算teacher和student网络输出结果中像素点之间的相似性,然后对齐两个similarity map,其中两个像素之间的相似性的计算是通过a i j _{ij} ij=f i _{i} i T ^{T} Tf j _{j} j/(||f i _{i} i|| 2 _{2} 2||f j _{j} j|| 2 _{2} 2)计算得到的。

** 整体蒸馏(Holistic distillation)**
采用条件生成式对抗学习来构造整体蒸馏问题,对齐student网络和teacher网络的输出。损失的形式如下:在这里插入图片描述
其中D是一个五卷积的全卷积神经网络。在最后三层之间插入两个自注意模块以获取结构信息。
网络整体架构如下:

部分实验结果如下

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

起个什么名字好w

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值