AI上推荐 之 MMOE(多任务yyds)

1. 写在前面

这篇文章开始多任务模型的学习,算是把多任务模型这块的坑填一下哈哈。

随着推荐技术的蓬勃发展,目前越来越多的推荐场景,往往并不是单纯的优化一个指标,比如:

  • 视频推荐领域: 推荐排序任务不仅需要考虑到用户点击率,完播率,也需要考虑到一些满意度指标,例如,对视频是否喜欢,用户观看后对视频的评分;
  • 文章推荐领域: 不仅希望用户点击阅读文章,还希望用户有更多的停留时长,互动、关注。
  • 电商推荐领域: 不仅希望用户更多对商品点击浏览,还希望用户看完商品后进行付费,点击率和转化率

所以,推荐系统做到后期,往往会朝着多目标学习进行演化,承担更多的业务目标,提高用户粘性。 而多目标排序呢, 大致上有4种解决方案:

  1. 改变样本权重进行多目标优化: 这是一种比较初级的方式。 比如主目标是点击率,分享功能是我们希望提高的功能。 那么点击和分享都是正样本,分享的样本可以设置更高的样本权重。 模型训练在计算梯度更新参数时,梯度要乘以权重,对样本权重大的样本给予更大权重。 通过这种方法,使得原始目标A会受到一定的损失以换取新增加目标B的增长,实现初级的多目标优化。
    • 优点: 模型简单,不需要额外架构支持,没有增加算法复杂度
    • 缺点: 没有对多目标建模,而是将多个目标折算成一个,折算权重不好确定
  2. 多模型分数融合: 这个比较好理解, 之前的整理的模型大多都是只针对于单目标的优化模型,多模型融合的思路,就是用多个模型分别预测每个目标,最后的预测分数加权融合, 比如
  • 21
    点赞
  • 62
    收藏
    觉得还不错? 一键收藏
  • 14
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值