ADVENT: Adversarial Entropy Minimization for Domain Adaptation in Semantic Segmentation(CVPR2019)

这篇文章主要是基于对抗+熵图。 

Vu T H, Jain H, Bucher M, et al. Advent: Adversarial entropy minimization for domain adaptation in semantic segmentation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019: 2517-2526.

一、动机

作者观察到:源域上的监督学习训练出来的模型,在与源域相似的图片上预测出来的语义分割图是低熵。而在目标域上的预测图则是高熵。如下图所示。左边是语义分割图,右边计算整个图熵值结果的可视化。源域中的预测熵图(prediction entropy maps):在边缘部分有很高的熵值。而在目标域,预测熵图并不是这么明显。语义分割图中有很多噪声,会造成额外的熵增。由此,作者推测出减小目标域的熵值可以缩减源域和目标域之间的差别。


原文补充:在这项工作中,我们将熵值最小化的原则适用于语义分割中的UDA任务。我们从一个简单的观察开始:只在源域上训练的模型倾向于对源类图像产生过度自信,即低熵的预测;而对目标类图像产生不自信&#

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Advent是一种无监督域自适应方法,旨在解决域自适应问题中存在的域间差异的挑战。该方法通过将源域和目标域中的数据进行映射,将两个域之间的差异减小到最小化,从而实现对目标域的有效适应。 Advent的核心思想是通过使用反向生成模型来映射源域中的数据,以伪装目标域的样本。具体而言,Advent包含两个主要步骤:源域样本到目标域样本的转换和目标域样本的伪装。 在源域样本到目标域样本的转换步骤中,Advent使用一个生成模型来学习源域到目标域的映射。该模型通过对源域数据进行编码和解码,将高维的源域样本映射为目标域样本。这样可以在保持数据的本质信息的同时,减小源域与目标域之间的差异。 在目标域样本的伪装步骤中,Advent通过训练一个分类器来对目标域数据进行分类。该分类器通过将源域样本和生成的目标域样本进行区分,从而学习目标域样本的特征。 通过交替训练生成模型和分类器,Advent可以逐渐减小源域与目标域之间的差异。生成模型通过学习目标域样本的特征,可以将源域样本转换为接近目标域的样本。而分类器可以通过不断迭代,提高对目标域样本的识别能力。 总之,Advent是一种利用无监督学习方法实现域自适应的技术。通过迁移源域样本到目标域样本,并通过训练分类器来伪装目标域样本,Advent可以有效地减小源域与目标域之间的差异,实现对目标域的自适应。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值