Deep Domain Confusion: Maximizing for Domain Invariance

1. 作者 来源

UC Berkeley 与 UMass Lowell, 的Eric Tzeng, Judy Hoffman, Ning Zhang
,Kate Saenko,Trevor Darrell
2014 年的一篇paper 好像没有说什么期刊会议上的 链接地址

2.Motivation

在大规模数据集上训练的通用监督深度CNN模型可以减少但不能消除在标准基准测试上的数据集偏差。也就是我们所说的domain adaptation。

3.Model

其提出的架构如图所示他的思想也是非常自然的

  1. 一部分是希望source domain 和 target domain 通过特征提取的网络可以得到其不变的特征 所以设计的domain loss 应该是让其提取的特征非常接近那么很明显可以使用MSEor L1 loss
  2. 就是为了保证其分类性能提出的classification loss
    在这里插入图片描述

目的就是由图像化的解释如下:
在这里插入图片描述

Summary:

  1. 为了让source domain 和 target domain尽量靠近(domain loss)
  2. 为了保证分类器可以正确分类 (classification loss )

其实 想一想可以发现很多的问题都是在提升第二个目标,大家都是在这个基础上进行修改,因为不管是降维还是风格转换相对来说比较容易进行但是如果保证风格转化或者是降维之后依然可以有比较好的分类效果才是真正的比较困难和值得探究的问题。

4.contribution

  1. 提出了共同优化也就是上述的结构,取得了当时sota的结果
  2. 使用的混淆距离是maximum mean discrepancy(MMD)
    原文的思考过程

仅使用源数据直接训练分类器往往会导致对源分布的过拟合,导致在目标域中识别时在测试时的性能降低。我们的直觉是,如果我们能学习一种使源分布和目标分布之间的距离最小化的表示,那么我们就可以在源标记数据上训练一个分类器,并直接将其应用于目标域,且精度损失最小。

其实重点就是MMD是什么?
在这里插入图片描述
视频介绍
我也只是一只半懂,感谢GAN的提出,为我们做迁移学习的减少了痛苦。

5.Results

结果当然是比较好的了 因为时间比较久远 我就不详细分析了

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值