机器学习概念理解——迁移学习

Conception

将预训练好的模型学到的知识迁移到别的任务/模型上,使其之前的知识得以保留,辅助在其他任务/模型上的训练。

Motivation

  • Exploit a model trained on one task for a related task
  • Popular in deep learning as DNNs are data hungry and training cost is high

Approaches

  • Features extraction (Word2Vec, ResNet50 features, I3D features)
  • Train a model on a related task and reuse it.
  • Fine-Tuning from a pretrained model

Fine-Tuning techniques

  • Initialize the model with the feature extractor parameters of a pretrained model
  • Random Initialize the output layer
  • Train with a small learning rate with just a few epochs
  • Control the search space of your model, don’t be large.
    Just modifies a little, or their will be nonsense with the pretrained model.

Freeze Bottom Layers

在神经网络的底层上学到的一般都是数据的底层的根本的特征,随着层数越多,学习到的全局的知识越多,越具体,向数据的标号空间靠近
在这里插入图片描述
在Fine-Tuning中将预训练模型的底层freeze,学习率调为0.
Focus on learning task specific features.
Keep low-level universal features intact.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值