CVPR 2019之迁移学习:Contrastive Adaptation Network for Unsupervised Domain Adaptation

本文提出了Contrastive Adaptation Network (CAN)用于无监督域自适应,解决以往方法忽略类信息导致的不一致和泛化性能低下问题。CAN通过类内域差异最小化和类间域差异最大化实现类感知对齐,提高模型泛化能力。在深度CNN中,CAN网络在FC层上应用CDD目标,结合交叉熵损失进行交替优化,以实现端到端训练。实验证明,CAN在Office-31和VisDA-2017数据集上表现出优越性能。
摘要由CSDN通过智能技术生成

Contrastive Adaptation Network for Unsupervised Domain Adaptation

简述:
无监督域自适应(UDA)对目标域数据进行预处理,而手工注释只在源域可用。以往的方法在忽略类信息的情况下,会使域间的差异最小化,从而导致不一致和泛化性能低下。目前,虽然有ImageNet这种庞大的拥有精确标记的数据集,但是对于每个特定的目标域或任务,手工标签往往很难或很昂贵,域内标记数据的缺乏阻碍了数据拟合模型在实际问题中的应用。本文提出的CAN网络(Contrastive Adaptation Network)优化了一个显式地对类内域差异和类间域差异建模的新度量,设计了一种交替更新 (alternating update)的培训策略,可以端到端(end-to-end)的方式进行。
下图中,左:自适应之前,源和目标数据之间存在域移动;中:以往的方法,与类无关的调整将源和目标数据在域级别上对齐,忽略了样本的类标签,因此可能导致次优解决方案。因此,一个标签的目标样本可能与另一个标签的源样本不一致。右:我们的方法是执行跨域的类感知对齐。为了避免失配,最小化类内部域的差异,最大化类间域差异,增强模型的泛化能力。
在这里插入图片描述
由于以下原因,这可能会影响适应性能。首先,不同类的样本可能排列不正确。其次,所学习的决策边界对目标域的泛化能力较差。为了解决上述问题,我们引入了一个新的对比域差异(CDD)目标来启

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值