![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
迁移学习
thormas1996
关注机器学习,深度学习,联邦学习,推荐系统等相关内容
展开
-
迁移学习论文阅读:Taskonomy: Disentangling Task Transfer Learning
Taskonomy: Disentangling Task Transfer Learning是CVPR2018的最佳论文,斯坦福大学Guibas组的文章。论文地址:http://taskonomy.stanford.edu/taskonomy_CVPR2018.pdf作者在知乎有一个非常详细的解释文章:https://zhuanlan.zhihu.com/p/38425434个人笔记:迁...原创 2019-03-06 09:50:53 · 905 阅读 · 0 评论 -
迁移学习论文阅读:Transfer Learning via Learning to Transfer
论文地址2018cvpr的论文,作者提出了一个L2T的框架,目的是对于一个新的任务,利用以前的经验来帮助决定如何进行迁移,从而避免之前需要尝试多种迁移方法的情况。实验分为两个步骤:第一步:从以往的经验中得到三个数据,源领域和目标领域对,代表迁移知识的潜在特征矩阵以及相比较不用迁移学习时模型性能提升。那么可以建立一个表示迁移知识和模型性能提升的映射关系,成为响应函数,用于决定迁移的内容和方法...原创 2019-03-07 14:53:18 · 1248 阅读 · 0 评论 -
最大均值差异 Maximum Mean Discrepancy(MMD)
最大均值差异MMD用于衡量两个分部之间的相似性,迁移学习中经常用其来衡量源领域和目标领域的差异性。它的基本假设是:如果对于所有以分布生成的样本空间为输入的函数f,两个分布生成的样本足够多,且其对于函数f所有对应值的均值都相等,那么可以认为这两个分布是同一个分布。如何用MMD来衡量两个分布的相似性?简单来说,就是找一个在样本空间的连续函数f,将两个分布的样本在f上的均值相减,要求函数f使这个差值...原创 2019-03-07 15:09:35 · 6787 阅读 · 1 评论 -
Low-resource Neural Machine Translation
调研了一下目标领域少数据的机器翻译问题,持续更新中Low resource MT指在source domain有大量数据,而target domain数据很少,希望能迁移一些知识来提高target domain翻译的效果。常用作法扩大数据集,e.g. 用单语数据pivot-based method,也常见于zero-source问题,找一个中间domain,A->B,B->...原创 2019-03-20 10:08:12 · 1698 阅读 · 0 评论