多任务学习中的auxiliary loss(辅助损失)

在读论文时发现对于一些多任务学习,作者往往会在损失项中加上auxiliary loss(辅助损失),对此,阅读了相关资料后做出总结如下:

首先,作为知识先验,我们要知道所谓多任务学习(Multi-Task Learning)就是通过在相关任务间共享表示信息,使得模型在原始任务上泛化性能更好。也就是说,一旦发现我们的目标是优化多于一个的目标函数,就可以通过多任务学习来有效求解;但即使对于优化目标只有一个的特殊的情况,辅助任务仍然有可能帮助我们改善主任务的学习性能。

多任务学习具有两种学习模式:隐层参数的硬共享(hard parameter sharing)及软共享

硬共享可以应用到所有任务的所有隐层上,而保留任务相关的输出层,降低了过拟合的风险。

软共享则放任每个任务都有自己的模型,自己的参数,只对模型参数的距离进行正则化来保障参数的相似。

  • 2
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Domain adaptation with auxiliary task是一种在领域适应使用辅助任务的方法。领域适应是指将在一个领域上训练的模型应用到另一个领域的问题上。通常情况下,模型在不同领域之间的性能会下降,这是因为两个领域之间的数据分布差异。 辅助任务是指在领域适应过程引入一个与目标任务相关但在源领域上已有标注的任务。这个辅助任务可以帮助模型学习到源领域和目标领域之间的共享特征和知识。通过将源领域和目标领域的数据同时输入到模型进行训练,模型可以学习到源领域和目标领域之间的联系。 使用辅助任务的方法有两种:joint training和pretraining。在joint training,源领域的数据和目标领域的数据通过一个共享的网络结构进行训练,源领域的任务和目标领域的任务可以同时进行。在pretraining,首先使用源领域的数据训练一个模型,然后将这个已经训练好的模型作为初始模型,再使用目标领域的数据进行微调。 辅助任务的引入可以带来多个优势。首先,通过在源领域上引入额外的训练数据,可以提高模型在源领域上的性能。其次,通过学习到源领域和目标领域之间的共享特征,模型可以更好地适应目标领域的数据,从而提高在目标领域上的泛化能力。最后,辅助任务可以帮助模型避免因迁移而导致的信息丢失和过拟合问题。 综上所述,domain adaptation with auxiliary task是一种通过引入辅助任务来加强领域适应的方法。通过辅助任务的学习,模型可以从源领域和目标领域的数据获得更多的共享知识和特征,从而提高在目标领域上的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值