CVPR 2019 Oral 论文解读 | 无监督域适应语义分割

本文介绍了CVPR 2019 Oral论文《Taking A Closer Look at Domain Shift: Category-level Adversaries for Semantics Consistent Domain Adaptation》,该研究提出一种新的无监督语义分割算法,通过联合训练和对抗学习解决虚拟与现实图像之间的域偏移问题,提高自动驾驶等场景的语义分割精度。
摘要由CSDN通过智能技术生成

雷锋网 AI 科技评论按:百度研究院、华中科技大学、悉尼科技大学联合新作——关于无监督领域自适应语义分割的论文《 Taking A Closer Look at Domain Shift: Category-level Adversaries for Semantics Consistent Domain Adaptation》被 CCF A 类学术会议 CVPR2019 收录为 Oral 论文 。该论文提出了一种从「虚拟域」泛化到「现实域」的无监督语义分割算法,旨在利用易获取的虚拟场景标注数据来完成对标注成本高昂的现实场景数据的语义分割,大大减少了人工标注成本。 本文是论文作者之一罗亚威为雷锋网 AI 科技评论提供的论文解读。

论文地址: https://arxiv.org/abs/1809.09478

1.问题背景

基于深度学习的语义分割方法效果出众,但需要大量的人工标注进行监督训练。不同于图像分类等任务,语义分割需要像素级别的人工标注,费时费力,无法大规模实施。借助于计算机虚拟图像技术,如3D游戏,用户可以几乎无成本地获得无限量自动标注数据。然而虚拟图像和现实图像间存在严重的视觉差异(域偏移),如纹理、光照、视角差异等等,这些差异导致在虚拟图像上训练出的深度模型往往在真实图像数据集上的分割精度很低。

CVPR 2019 Oral 论文解读 |  无监督域适应语义分割

 图1. 问题背景

2. 传统方法

针对上述域偏移问题,一种广泛采用的方法是在网络中加入一个域判别器Discriminator (D),利用对抗训练的机制,减少源域Source (S)和目标域Target(T)之间不同分布的差异,以加强原始网络(G)在域间的泛化能力。方法具体包括两方面:

(1)利用源域的有标签数据进行有监督学习,提取领域知识:

 

  • 2
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
对于2023半监督语义分割的最新进展,我可以告诉你一些信息。请注意,以下内容仅基于我对当前研究领的了解,可能不是最新的结果。 半监督语义分割是指在训练过程中,只有一小部分样本标记了语义分割的类别,而其他样本没有标记。这种方法可以减少人工标注的工作量,并且在训练数据有限的情况下提高模型性能。 在CVPR(计算机视觉与模式识别会议)2023年的研究中,可能会涉及半监督语义分割的新方法和技术。这些方法可能会探索如何利用大量未标记的图像进行训练,并将其与少量标记数据结合起来,以提高语义分割模型的性能。 一种常见的方法是使用生成对抗网络(GAN)来进行半监督学习。通过生成器和判别器之间的对抗训练,模型可以学习从未标记数据中生成逼真的分割结果,同时提供一致性损失来确保生成的结果与标记数据保持一致。 另一种方法是基于自监督学习,该方法通过设计任务来利用未标记数据的自身信息。例如,可以通过自动生成像素级别的标签,然后将其与真实标签进行比较,从而训练语义分割模型。 此外,还有一些基于图模型和图割方法的半监督语义分割技术。这些方法利用图割算法来尝试将未标记的区分配给正确的类别,以增强模型的训练效果。 总的来说,在CVPR 2023中,我们可以期待看到更多关于半监督语义分割的创新方法和技术的研究成果。这些方法将有望在语义分割任务中取得更好的效果,并且对于减少标记数据的依赖具有重要意义。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值