![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
迁移学习
用GAN得有GPU
发帖主要是为了整理自己的心得,仅供参考,有可能内容有误,欢迎指正错误,互相学习!
展开
-
深度迁移学习概述
深度迁移学习概述:深度迁移学习为传统迁移学习与深度神经网络相结合的一种新兴研究方向,以其对比非深度方法还有两个优势:自动化地提取更具现力的特征,以及满足了实际应用中的端到端 (End-to-End) 需求。下图为深度迁移学习与传统迁移的结果比对。图中深度迁移学习方法 (BA、DDC、DAN) 对比传统迁移学习方法 (TCA、GFK 等)。1.实验测试:目前,深度迁移学习大致的思路为:在...原创 2019-10-08 11:28:09 · 2610 阅读 · 0 评论 -
迁移学习笔记
记录几个迁移学习网络(实时更新):http://baijiahao.baidu.com/s?id=1604059257164610073&wfr=spider&for=pcTaskonomy: Disentangling Task Transfer Learninghttps://cosx.org/2017/10/transfer-learning/3....原创 2019-10-26 23:20:22 · 107 阅读 · 0 评论 -
CVPR 2018之迁移学习: Partial Transfer Learning with Selective Adversarial Networks
简述:当前,目标迁移任务中的生成对抗网络GAN的核心目的是在于它的生成器G,而至于为什么存在判别器D,主要是为了引入对抗训练,通过对抗训练的方式让生成器能够生成高质量的图片。本文是基于GAN网络的一种具体案例的延伸。作者认为,在大数据时代,通常我们会有大量的源域数据。这些源域数据比目标域数据,在类别上通常都是丰富的。比如基于 ImageNet 训练的图像分类器,必然是针对几千个类别进行的分类。...原创 2019-10-11 23:15:09 · 1011 阅读 · 1 评论 -
CVPR 2019之迁移学习:Contrastive Adaptation Network for Unsupervised Domain Adaptation
Contrastive Adaptation Network for Unsupervised Domain Adaptation简述:无监督域自适应(UDA)对目标域数据进行预处理,而手工注释只在源域可用。以往的方法在忽略类信息的情况下,会使域间的差异最小化,从而导致不一致和泛化性能低下。目前,虽然有ImageNet这种庞大的拥有精确标记的数据集,但是对于每个特定的目标域或任务,手工标签往往...原创 2019-10-18 11:32:08 · 5243 阅读 · 0 评论