Transfer Learning (迁移学习)

Transfer Learning

  • Transfer Learning: 运用已有的相关知识来学习新的知识 (Data not directly related to the task considered)
    • e.g. We have a Dog/Cat Classifier.
      在这里插入图片描述But we want to apply it to the following two tasks:
      在这里插入图片描述

Transfer Learning - Overview

在这里插入图片描述

labelled → \rightarrow labelled

Task description

  • Source data: ( x s , y s ) (x^s,y^s) (xs,ys) (A large amount)
  • Target data: ( x t , y t ) (x^t,y^t) (xt,yt) (Very little)

One-shot learning: only a few examples in target domain


  • Challenge: only limited target data, so be careful about overfitting

Model Fine-tuning

  • Model Fine-tuning: training a model by source data, then fine-tune the model by target data

Conservative Training

  • 为了避免在 target data 上过拟合,可以加上正则项,例如 (1) 使模型在迁移学习前后,输入同一个 input 得到的 output 相近 (output close),或 (2) 参数的 L2 norm 相近 (parameter close)
    在这里插入图片描述

Layer Transfer

  • Layer Transfer: 只用 target data 训练某几层的参数,保持其余层的参数不变 (如果有足够的 target data 的话,也可以 fine-tune 整个模型)
    • e.g. 保留前面层的参数,只修改最后一层或几层的参数 (数据越多,修改的层数越多),并构造新的输出层。这样做的话就相当于只训练一个浅层网路
      在这里插入图片描述
  • Which layer can be transferred (copied)?
    • Speech: usually copy the last few layers (前几层一般用来去除语者信息,后几层一般用于处理语义信息)
    • Image: usually copy the first few layers (前几层一般是提取纹理等基础特征)

大部分深度学习框架都可以设置来不训练某些层的参数

Multitask Learning

  • Multitask Learning: 要求模型在 target data 和 source data 上都有不错的性能

The multi-layer structure makes NN suitable for multitask learning

在这里插入图片描述


Multitask Learning - Multilingual Speech Recognition


Progressive Neural Networks

labelled → \rightarrow unlabeled

Task description

  • Source data: ( x s , y s ) (x^s,y^s) (xs,ys)
  • Target data: ( x t ) (x^t) (xt)

Examples

在这里插入图片描述在这里插入图片描述

可以把 source data 看作 training data,target data 看作 testing data

Domain-adversarial training

See Domain Adaptation

Zero-shot learning

Representing each class by its attributes

  • 模型不直接输出图像的类别,而是输出该类别的属性。在 testing data 上测试时,通过模型输出的属性找到其对应的类别
    在这里插入图片描述

Attribute embedding

  • 图像对应的属性可能非常多,会导致模型参数量变得过大,此时可以将图像和类别对应的属性都映射到同一个 embedding space,使得同一类的图像和类别属性的映射尽量接近,不同类的图像和属性的映射尽量远离。最后在测试时,只需将图像映射到 embedding space 中,看看图像与哪一个类别属性的 embedding 最接近即可
    在这里插入图片描述
    f ∗ , g ∗ = arg min ⁡ f , g ∑ n max ⁡ ( 0 , k − f ( x n ) ⋅ g ( y n ) + max ⁡ m ≠ n f ( x n ) ⋅ g ( y m ) ) f^*,g^*=\argmin_{f,g}\sum_n\max\bigg(0,k-f(x^n)\cdot g(y^n)+\max_{m\neq n}f(x^n)\cdot g(y^m)\bigg) f,g=f,gargminnmax(0,kf(xn)g(yn)+m=nmaxf(xn)g(ym))
    • k k k: Margin you defined
    • Zero loss:
      在这里插入图片描述

Attribute embedding + word embedding

  • 如果图像对应的属性多到难以在属性和类别之间进行一一映射,此时可以将对类别属性的映射改为对词向量的映射
    在这里插入图片描述

Convex Combination of Semantic Embedding

  • 还有一种更简单的 Zero-shot learning 的方法:直接用现成的 Imagenet 分类和词向量的模型,按照网络最后输出各个类别的概率,直接对所有类别的词向量进行加权求和即可
    在这里插入图片描述

More about Zero-shot learning

  • Mark Palatucci, Dean Pomerleau, Geoffrey E. Hinton, Tom M. Mitchell, “Zero-shot Learning with Semantic Output Codes”, NIPS 2009
  • Zeynep Akata, Florent Perronnin, Zaid Harchaoui and Cordelia Schmid, “Label-Embedding for Attribute-Based Classification”, CVPR 2013
  • Andrea Frome, Greg S. Corrado, Jon Shlens, Samy Bengio, Jeff Dean, Marc’Aurelio Ranzato, Tomas Mikolov, “DeViSE: A Deep Visual-Semantic Embedding Model”, NIPS 2013
  • Mohammad Norouzi, Tomas Mikolov, Samy Bengio, Yoram Singer, Jonathon Shlens, Andrea Frome, Greg S. Corrado, Jeffrey Dean, “Zero-Shot Learning by Convex Combination of Semantic Embeddings”, arXiv preprint 2013
  • Subhashini Venugopalan, Lisa Anne Hendricks, Marcus Rohrbach, Raymond Mooney, Trevor Darrell, Kate Saenko,
    “Captioning Images with Diverse Objects”, arXiv preprint 2016

unlabeled → \rightarrow labelled

Self-taught learning


  • Self-taught learning: Learning to extract better representation from the source data (unsupervised approach) (e.g. learn an auto-encoder as a feature extractor)

Self-taught learning 和 Semi-supervised learning 有所不同,虽然都是有大量的 unlabeled data 和少量的 labelled data,但 Self-taught learning 中的 labelled data 和 unlabeled data 之间没有直接关联

unlabeled → \rightarrow unlabeled

Self-taught Clustering

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Online learning(在线学习)指的是通过互联网或其他远程技术进行教育和学习的方式。它已经成为当今社会中非常普遍的学习方式,尤其是在全球范围内的疫情期间,许多学校和机构都转向了在线学习模式。学生可以通过在线学习平台获得课程内容、参与讨论、提交作业和进行考试。 迁移学习Transfer learning)是指将已经学习过的知识或技能应用到一个新的领域或任务中。这种学习方式允许个体在面对新的挑战或情境时能够更快更有效地应对,因为他们可以将已有的经验和知识转移到新的情境中。迁移学习可以帮助个体更好地适应变化、提高适应能力和解决问题的能力。 Online learning迁移学习之间存在一定的联系。通过在线学习,学生可以在一个虚拟的环境中学习各种知识和技能,这些学习成果可以在日常生活或工作中进行迁移应用。例如,学习一门外语的技能可以在旅行时得到应用;学习数据分析的方法可以在工作中帮助提高工作效率。因此,通过在线学习获得的知识和技能都可以通过迁移学习的方式应用到不同的场景中,并帮助个体更好地适应变化,提高自身的综合素质。 总体来说,Online learning迁移学习都是现代社会重要的学习方式和策略,它们为个体提供了更多的学习机会和技能应用场景,有助于个体提高自身的学习能力和适应能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值