多任务学习MTL-基本介绍(一)

本文介绍了多任务学习(MTL)的基本概念,对比了单任务模型和多任务模型,强调了多任务模型在相关任务学习中的优势,如提升泛化能力、避免局部最优和正则化等。内容涵盖了任务的相关性定义、多任务学习的优势及应用场景,如视频推荐、MoE和MMoE模型,以及在推荐系统中的应用如ESMM模型。
摘要由CSDN通过智能技术生成

多任务模型

单任务模型

一个模型学习一个目标,不同模型享用独立的模型空间,不同模型之间没有连接,相互独立
在这里插入图片描述

多任务模型

一个模型学习多个目标,共享同一个模型空间
在这里插入图片描述

优势:相比于单任务模型,同时学习多个相关任务,多任务模型具有相当的优势。
例如:视频推荐中的例子把点击率、时长和完播率拆分出来,形成三个独立的训练目标,分别建立各自的Loss Function,作为对模型训练的监督和指导。
相关任务
(1)使用相同的特征做判断的任务

  • 如果两个任务是处理输入的相同函数,但是在任务信号中加入独立的噪声,很明显这两个任务是相关的。
  • 如果两个任务用于预测同个个体的属性的不同方面,这些任务比预测不同个体的属性的不同方面更相关。

(2)共享相同的最优假设空间,即拥有相同的归纳偏置(having the same inductive bias)
(3)F-相关(F-related): 两个任务的数据可以从一组分布变换 F 得到的固定概率分布生成

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值