Class Similarity Weighted Knowledge Distillation for Continual Semantic Segmentation

Class Similarity Weighted Knowledge Distillation for Continual Semantic Segmentation

论文地址

Abstract

这篇工作在CSS领域主要是利用蒸馏和当前类别比较像的先前类别的知识,加强旧的容易被遗忘的类别的记忆,也让新类别学习得更好。

1. Introduction

作者这篇工作的观点在于,和新类别相似的旧类别在学习新类别时更容易被遗忘,即旧类别会被认为是新类别,具体可以看下图:
在这里插入图片描述
在animal group中,sheep的性能下降更猛烈;在vehicle group中,train下降更猛烈。

3. Method

3.1. Problem definition and background

本工作contribution可以分成三部分:伪标注,蒸馏和相似度权重。这三部分也对应着本文框架的三个损失函数。
在这里插入图片描述

3.2. Proposed REMINDER framework

伪标注和大部分CSS问题一样,就是在后面类别中用当前已经学习好的模型把旧的类别重新标注一下,然后在新的标注上继续训练:
在这里插入图片描述
在这里插入图片描述
蒸馏损失和其他利用蒸馏损失的CSS方法也是类似的,这里是参照了PLOP的local POD蒸馏方式:
在这里插入图片描述
最重要的是相似度权重这一部分,算是比较新颖的一处,就是通过计算新类别对应像素和旧类别的相似度,相似度越高,权重就越大,然后用加权之后的output去计算他提出的 L c s w − k d \mathcal L_{csw-kd} Lcswkd
在这里插入图片描述
在这里插入图片描述
那这个相似度又是怎么求得的呢?作者利用了prototype去存储类别相关的信息,这个prototype的具体计算方式如下:
在这里插入图片描述
然后利用prototype计算相似度:
在这里插入图片描述
在这里插入图片描述
这里的 m m m是prototype map。

其他有关实验的部分这里就不放了,感兴趣的可以直接看原文。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值