机器学习基础篇-迁移学习+多任务学习

迁移学习-Transfer Learning

如果我们拥有大量的训练数据,或者神经网络特别的大,我们训练这样的一个模型是非常耗时的。幸运的是,有一些模型已经开源并可以公开使用的。通常,这些模型是在大量数据上进行训练的。

迁移学习的思想就是我们可以使用这些预先训练好的模型,并不断调整这个模型,使得它适应我们的问题。如下图所示:
在这里插入图片描述

  • 如果我们拥有大量的训练数据,我们可以重新训练整个神经网络。
  • 如果我们只有少量的训练数据,我们可以在预训练模型基础上,重新训练最后几层。

Q:在哪种场景可以使用预训练模型?

假设:现有适应任务A的预训练模型,和适应任务B的自身模型。

  • 这两个任务应该具有相同的输入格式。
  • 对于任务A,我们拥有大量的训练数据;对于任务B,数据量相对于任务A会少很多倍。
  • 从任务A学习到的低阶特征,对任务B能起到提升的作用。

多任务学习-Multi-Task Learning

在常规分类任务中,通常每个实例都对应一个label。如下图所示。 第 i 个实例仅对应于第二个类。
y i = ( 0 1 0 0 0 ) y^{i} = (\begin{array}{c} 0\\ 1\\0\\0\\0 \end{array}) yi=(01000)

然而,在多分类学习中,一个实例会对应多个label。
y i = ( 0 1 1 1 0 ) y^{i} = (\begin{array}{c} 0\\ 1\\1\\1\\0 \end{array}) yi=(01110)

损失函数:
L o s s F u n c t i o n = 1 m ∑ i = 1 m ∑ j = 1 5 L ( y ^ j i , y j i ) L ( y ^ j i , y j i ) = − Y j i l o g y ^ j i − ( 1 − y j i ) l o g ( 1 − y j i ) LossFunction=\frac{1}{m}\sum^m_{i=1}\sum^5_{j=1}L(\widehat{y}^i_j,y^i_j)\\ L(\widehat{y}^i_j,y^i_j) = -Y^i_jlog\widehat{y}^i_j-(1-y^i_j)log(1-y^i_j) LossFunction=m1i=1mj=15L(y ji,yji)L(y ji,yji)=Yjilogy ji(1yji)log(1yji)

  • m为样本数
  • j为第j个lable

对于多任务学习的一些Tips:

  • 多任务学习会共享相同的低阶特征
  • 对于多任务学习,我们可以尝试一个足够大的神经网络来处理所有任务
  • 在训练集中,每个任务的实例数量相似
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Mr.Wiggles

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值