迁移学习论文阅读:Transfer Learning via Learning to Transfer

论文地址

2018cvpr的论文,作者提出了一个L2T的框架,目的是对于一个新的任务,利用以前的经验来帮助决定如何进行迁移,从而避免之前需要尝试多种迁移方法的情况。

思想和meta-learning比较类似,都是想学习到一些高维度的抽象特征。

在这里插入图片描述
实验分为两个步骤:
第一步:从以往的经验中得到三个数据,源领域和目标领域对,代表迁移知识的潜在特征矩阵以及相比较不用迁移学习时模型性能提升。那么可以建立一个表示迁移知识和模型性能提升的映射关系,成为响应函数,用于决定迁移的内容和方法。
第二步:对于一个新的迁移任务,最大化响应函数。

求响应函数f:
首先将迁移经验参数化,求出每个迁移算法的变换矩阵W,响应函数f与s,t和W有关,对应函数值为模型表现提升的比例。然后从中选择一个最优的算法。最优的迁移算法利用MK-MMD求出,考虑三点,一是source和target domain的距离,也即计算MMD,二是考虑两者之间的方差,防止方差大导致两者交叠很少,三是潜在空间中目标域的判别能力,用无监督判别标准来判断。最小化f,也就是找一个最相似的源领域,得到的变换矩阵就是要求的响应函数。

对于一个新的迁移任务,最大化响应函数:
在原响应函数基础上更新来达到在新的源-目标域对上取得最大的效果。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
transfer learning指的是将在一个领域学到的知识和经验应用到另一个相关领域的学习过程。在传统的机器学习中,模型是针对特定的数据集和任务进行训练的,而在transfer learning中,我们可以利用已经训练好的模型和知识,来加速并改善新任务的学习过程。 通过transfer learning,我们可以将一个领域学习到的知识迁移到另一个领域,从而减少在新任务上需要的数据量和时间,并改善模型的性能。这种方法在计算机视觉、自然语言处理等领域得到了广泛的应用。例如,我们可以利用在ImageNet数据集上训练好的模型来进行其他图像识别任务的学习,或者利用在大规模文本数据上训练好的模型来进行文本分类任务的学习。 transfer learning主要有以下几种方法:特征提取、微调和领域自适应。特征提取是将已经训练好的模型的部分层作为特征提取器来提取出特征,然后将这些特征输入到一个新的模型中进行训练。微调则是在已经训练好的模型的基础上进行进一步训练,通常是在新数据集上进行几层的训练。领域自适应则是通过对模型进行进一步的调整和优化,使其适应于新的领域和任务。 总的来说,transfer learning是一种非常有效的学习方法,能够充分利用已有的知识和经验,来提高模型在新任务上的性能和泛化能力。它为解决实际问题提供了一种强大的工具,也是深度学习领域的重要研究方向之一。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值