迁移学习(Transfer Learning)

本文是关于李宏毅教授机器学习课程中迁移学习部分的笔记,探讨了迁移学习的概念、模型微调、多任务学习、领域对抗训练以及零样本学习等方法,通过实例解释了如何在不同数据集和任务中应用迁移学习来提升模型性能。
摘要由CSDN通过智能技术生成

本博客是针对李宏毅教授在youtube上上传的Machine Learning课程视频的学习笔记。课程链接

概念

  • 迁移学习是什么?

    假设手上有一些和现在要进行的学习任务不相关的数据,那么能不能用这些数据帮助完成学习任务。

    如下图,比如我们想做一个猫狗分类器,

    但是我们没有猫狗的图片数据,而只有以下数据:

    • 大象和老虎图片(都是动物图片,所以属于相似的域(domain),但是与猫狗分类相比是完全不同的学习任务)
    • 招财猫和高飞狗图片(都是卡通人物图片,所以属于不同的域,但是同属于猫狗分类任务)

  • 为什么要研究迁移学习?

    • 比如如果要做台语的语音识别,但是网络上的训练数据很少,于是想到能不能利用youtube上海量的其它语音数据来做台语的语音识别训练。
    • 做医学图像识别,但是医学图像的存量往往很少,那么海量的其它图片能不能帮忙呢
    • 做文本分析,可能特定领域的文本数据少,那么能不能利用其它领域的文本来帮忙呢
  • 可行性

    迁移学习的可行性一定基础上建立在人类的行为上,因为人类是不断在做迁移学习的。

    如下图所示,比如如果想要做好一名研究生,你可以参考称为一名好的漫画家应该如何做。

概览

根据源数据(我们手上已有数据)和目标数据(目标学习任务所需数据)是否有label,我们将迁移学习分成四种不同的类别。

Model Fine-tuning (labelled source, labelled target)

  • 任务描述

    目标数据量很少,源数据量很多。(One-shot learning:在目标域中只有几个或非常少的样例)

  • 例子:(有监督)讲话者调整

    目标数据:语音数据和某一特定讲话者的稿子。

    源数据:语音数据和很多讲话者的稿子。

  • 想法:用源数据训练一个模型,然后用目标数据微调模型

    • 难点:只有很有限的目标数据,所以要注意过拟合问题。

    • 一个解决过拟合难点的训练方法: Conservative Training(保留训练)

    在微调新模型时加

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值