推荐系统(十五)多目标学习

应用场景

多目标学习,顾名思义就是同时兼备多个目标,比如内容的点击率、点赞率以及完播率,那么如何设计一个推荐策略来很好地兼备这些目标呢,这里分阶段介绍一些概述性内容。

第一阶段:通过样本权重实现多目标优化

想象一个信息流推荐场景,用户可以滑动、点击并观看信息流推送的内容,这时的目标是保证点击率的情况下尽量保证完播率,即点击进去之后完整地看完资源,因为如果看完资源之后有相应的广告推送。

这时可以把这个任务看成一个二分类问题,即点击或者完播都看成正样本,滑动看成负样本,但有一点不同的是完播的样本权重要大一些,比如把一个完播的样本预测成滑动,这时损失惩罚更大。这种情况下训练任务很简单,而且把多目标转换成单目标,但这种做法灵活性较差,超参不好调。

第二阶段:多模型融合打分

思路较为简单,每个指标一个模型,最终采用一个公式进行打分,最终得到候选集。这种做法的缺点明显:

  1. 各模型得分差异较大,很难通过调整合适权重来得到最优解。
  2. 时间开销较大。

第三阶段:Learn to rank

通过对业务的理解构造样本,这里以构造pairwise样本为例,比如观看同样是点击资源,观看时间越长其越重要,即如果用户点击了两个样本i和j,如果样本i的观察时间比样本j的观看时间长,则这个pair下i的重要性大于j,依次为依据构造pairwise loss最终得到模型。这种策略没有太多超参,设计较为简单,但问题也很明显,因为构造样本的时间复杂度会很高,而且线上预测时间复杂度也很高,因为要为输入list的每个元素进行两两比较。

第四阶段:多任务学习

多个任务共享底层的权重,在上层进行多目标的分叉学习,这样多目标能够彼此兼顾,且模型较为简单,线上预测时仅需要对结果进行融合即可,但每个目标所占的权重依然是比较棘手的问题。

多任务学习这段时间较为流行,也有相应的论文支持,比如阿里的ESMM和谷歌的MOE模型。

参考

  1. 推荐系统中的多目标学习
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值