增量学习 (Incremental Learning)

语义分割中的增量学习

语义分割中的增量学习设置为:在第t个step,学习新的类别ct,ct的label仅包含当前学习的ct类别,所以在学习时要保证既学习到当前类别知识,又不能灾难性遗忘之前的类别知识。
在语义分割的增量学习任务中,要解决的重点问题是当前的ground truth的background 类别,可能既包含过去学习过的真实类别,又包括未来要学习的潜在类别。

1. 《Modeling the Background for Incremental Learning in Semantic Segmentation》 --CVPR 2020

在这里插入图片描述
总体思想是对当前类别的学习采用交叉熵loss,同时计算当前类别和过去类别的蒸馏loss避免遗忘。为了解决background的问题,对两个loss进行转换。
对于新类别的loss,背景部分的概率由(背景类别+过去类别)来表示,以此保留模型本身对过去类别的预测能力;对蒸馏loss,同样的思想,将背景部分概率表示为(当前新类别+背景类别),故蒸馏旧类别的同时不影响对当前新类别的预测。

2. 《PLOP: Learning without Forgetting for Continual Semantic Segmentation》

在这里插入图片描述
提出了多尺度的蒸馏和伪标签思想,重点是伪标签思想来实现对过去类别的保留,避免遗忘。

  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值