多任务学习:Progressive Layered Extraction (PLE): A Novel Multi-Task Learning (MTL) Model for Personalized

出处:[腾讯]RecSys2020最佳长论文
参考:https://mp.weixin.qq.com/s/IEtlu2AhvwI-W6lZY1j4NQ

1、论文贡献
论文对多任务学习方向,多个任务在NN模型中的架构形式做了探索。具体分为单层和多层两种结构。
2、单层的几种结构如下:
其中MMOE为google提出的专家模型,这里作为强基线,CGC为作者提出的模型,可以看出主要区别在于,作者的模型中每个任务同时有共享的专家和独有的专家,而MMOE全部是共有的专家,作者认为这样可以拟合任务间复杂的相关性(相近的任务共享参数可以提高性能,不相近的任务会引入噪声降低性能,同时有共享参数和独有参数可以环境这种噪声,即论文说的跷跷板现象)。
在这里插入图片描述
3、多层的结构如下:
多层可以近似认为是单层结构基础上进行堆叠,具体结构如下:

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值