SIGIR 2021 | FSCD-PreRank:面向效率和效果更加均衡的交互式粗排模型

Towards a Better Tradeoff between Effectiveness and Efficiency in Pre-Ranking- A Learnable Feature Selection based Approach. SIGIR 2021

论文下载:请戳文章底部「阅读原文」

▐ 0. 摘要

实际的搜索、推荐和广告系统中经常采用多阶段排序架构,包括召回、粗排、精排、重排等阶段。在粗排阶段,为了保证系统的效率,经常采用基于表征式(representation-focused, RF)结构的向量点积模型,这往往会对系统效果造成一定的损失。

阿里搜索广告rank算法团队提出了一种新的粗排方法,可以支持复杂的交互式(interaction-focused, IF)结构,且采用提出的特征选择方法(FSCD)实现了效率和效果的更好均衡。在阿里巴巴搜索直通车的实际广告场景的实验显示,相比于传统方法,采用提出的粗排模型后系统在不增加额外在线计算资源的情况下获得了明显的效果提升。

本工作已在阿里搜索广告全量上线,为阿里巴巴集团带来了显著的收益;同时工作撰写的论文也已经被SIGIR2021接收。

▐ 1. 介绍

大规模的搜索引擎和推荐系统对人们日常生活中的信息搜索和推荐起到了十分重要的作用,这些系统从数以千万或亿计的大量候选中为用户挑选了合适的内容,从而满足了用户对信息的需求。在超低时延的约束下,系统不可能布设单一的复杂模型为每一个候选进行打分和排序,而通常采用多阶段的排序架构。以阿里搜索广告为例,多阶段架构通常包括召回、粗排、精排、重排等阶段(详见图1a)。在多阶段架构中,精排模型通常采用具有IF结构的大规模深度神经网络(DNN),而为了保证系统效率,粗排模型往往采用具有RF结构的简单模型。

然而,具有RF结构的简单粗排模型会存在表达能力受限的问题。目前工业界的粗排模型通常采用基于向量点积的双塔模型,它是一种典型的RF结构(详见图1b),优点是在线复杂度低,可以实现多个内容的打分,但缺点也很明显:缺少显式的内容侧交叉特征和隐式的交叉语义信息,而这些信息对效果的提升有很大的助力。具有RF结构的粗排模型过于关注效率的优化,与IF结构的模型效果差距非常大。在实际在线服务过程中,以阿里搜索广告为例,特征的生成和模型推断几乎各占用了一半的在线时延,因此同时考虑效率和效果来进行粗排模型的特征选择可以显著改善在线效率,从而为基于IF结构的粗排模型提供了可能。

我们提出了一种效率和效果均衡的粗排方案,在粗排模型效率微降的基础上大幅度增长模型效果,详见图1b。本工作的贡献主要有:1.通过继承精排模型结构,粗排阶段成功采用了IF结构的模型,解决了RF结构的效果不足的问题;2.提出了一种基于特征复杂度和variational dropout的可学习特征选择方法(FSCD),可以学到一组效率和效果都优越的特征集合提供给粗排模型进行训练;3.实验结果显示,采用提出的粗排模型后,整个系统在效率持平的情况下获得了显著的在线效果提升。本方法已经在阿里搜索广告业务中全量上线,并获得了稳定的在线收益。

图1: 阿里搜索广告中的多阶段排序架构。(a) 多阶段架构的各个阶段:召回、粗排、精排、重排,以及每个阶段的打分内容数量;(b) 粗排和精排模型效率和效果的直观示意图,在本工作提出的方法中,粗排模型通过精排模型衍生而来,且优化成一个IF结构。

▐ 2. 提出的方法

我们提出的粗排模型是从精排模型中衍生而来的。两个模型都采用了IF结构,且共享了一组特征集合 ,其中 中的第 个特征域, 是特征域的个数。在阿里搜索广告的系统中,精排模型采用了 中的所有的特征域来保证线上效果的最优;粗排模型则采用 的特征域子集来减少在线的计算复杂度以及对更多的广告进行打分。将IF结构引入粗排模型的最大障碍是模型效率。模型可学习的参数通常可以包括特征embedding 和网络权重 ,而粗排模型的复杂度主要受embedding 的影响,因此选取既有效果又有效率的特征是粗排模型能够应用IF结构的关键。

2.1 粗排模型的FSCD方法

图2: 提出的粗排模型的FSCD方法

受到传统的Dropout FR方法的启发,我们提出了特征选择的FSCD方法来同时考虑特征的效率和效果,具体流程可见图2。在提出的FSCD方法中,特征的效果通过损失函数的交叉熵来进行优化,同时特征的效率通过特征维度的正则化来进行保证。FSCD方法可以通过一次端到端的训练来提取既有效果又有效率的特征集合。因此,应用这个特征集合的粗排模型的表达能力相比于基线模型可以获得显著增强。具体的推导过程如下。

为了选择出既有效果又有效率的特征集合,我们希望给每一个特征域 都设置一个可学习的抛弃(dropout)因子 ,以此来表示特征被抛弃( )或者被保留( )。 的embedding向量 会乘以 来组成新的embedding层。因子 满足参数为 的伯努利分布,即:

其中超参 是特征域 获得保留的先验概率,建模为特征复杂度 的函数:

其中 是sigmoid函数。 是建模 的一种方式,在实际应用中表现不错。特征复杂度 衡量第 个特征的存储和计算复杂度,包括但不限于在线计算复杂度 、embedding维度 、embedding取值的个数 等等。 会根据特征类型来进行设置(详见3.1节)。线性组合 是实现函数 的一种可行的方式,同时需要考虑超参 的设置。根据上述公式可知,具有较高复杂度的特征会拥有较小的保留先验概率 ,反之亦然。

给定训练样本 ,其中 是样本总数,可学习的特征选择损失函数为:

其中 的正则化权重,可以写作(详细推导过程见原文附录):

的减函数,是 的增函数。因此,具有较大复杂度 的特征在训练中会受到较大的惩罚 ,因此有更大的可能被舍弃掉。通过这种方式,FSCD方法引入了特征复杂度的建模,具笔者所知,这是传统特征选择方法所不具备的。

由于 满足伯努利分布,因此它是离散且不可导的,这与基于梯度下降的训练过程相违背。为了解决这个问题,伯努利分布被松弛成如下的可导函数:

其中 满足0-1之间的均匀分布,在训练过程中始终是随机变化的, 是常数,且在阿里搜索广告的实验中表现很好。对于绝大多数的 都是接近于0或1的,因此可以作为伯努利分布的连续函数近似。相比于保留先验概率 扮演了保留后验概率的角色,因此可以作为特征重要性被模型学习出来。

以上就是FSCD的特征选择方法,主要的可学习的变量有 , ,它们在训练中会同步更新。在 达到收敛之后,粗排模型的特征子集就可以按照 从大到小进行选取。

2.2 粗排模型的微调

在完成FSCD方法的特征选择之后,不在粗排特征集合中的特征会被抛弃,粗排模型会基于FSCD方法的 参数进行模型初始化,从而进行微调。具体地,粗排模型会基于如下的损失函数进行训练:

其中 是包含选取特征的样本, 分别是选取特征相关的embedding和网络权重。 进行初始化,可以加速粗排模型的收敛。伯努利因子 仅在FSCD方法中使用,而在微调过程中不再考虑。

2.3 资源复用

图3:阿里搜索广告架构中精排和粗排的资源复用情况

图3给出了提出的粗排模型应用于阿里搜索广告架构后的资源复用情况。由于粗排模型的特征集合是精排模型特征集合的子集,因此粗排模型的样本链路可以完全复用精排模型,无须重新生产样本,节省了大量的离线样本生成的资源。对于模型训练,粗排和精排相互独立,而由于粗排模型特征量远小于精排模型,因此训练资源的消耗也显著低于精排。对于模型校验和产出,粗排模型可以完全复用精排模型产出链路,做到零成本搭建链路。在线服务阶段采用阿里集团的RTP的打分服务,粗排模型由于体积小,可以和精排模型混部在同一个在线分组当中,无需额外存储设备,存储开销增长接近于零。

综上,提出的粗排模型在离线样本产出、模型训练、模型产出、在线服务等阶段都最大程度地复用精排模型链路,整个架构呈现存储零新增、计算微增长,以及搭建成本低的特点。

▐ 3. 实验

3.1 实验配置

我们的实验主要基于阿里搜索广告的在线系统。作为按照点击计费(CPC)的广告系统,阿里搜索广告主要致力于在不损失用户体验的基础上帮助广告主获取流量,同时提升平台的收入。因此主要的在线优化指标包括点击率(CTR)和千次展现的收益(RPM)。我们提出的粗排模型在实验中的基线是传统的基于向量乘积的双塔模型。在真实系统中,双塔结构上移至检索系统内部完成本地初选,粗排升级为提出的基于FSCD的IF结构模型。

粗排模型的特征集合是精排模型特征集合的子集,这是通过提出的FSCD来实现的。实验中的整体特征集合包含246个不同的特征域,根据其在线性能会分成不同的特征类型,且 的值主要受上述特征类型决定,详见表1。对于其它超参,我们采用 , 以及

特征类型编号特征类型   
I可以直接查询embedding的简单user/query侧特征0.4
II可以直接查询embedding的简单item相关特征1.5
III需要一定计算才能获得embedding的复杂user/query侧特征1.0
IV需要一定计算才能获得embedding的复杂item相关特征3.0

表1 特征集合中不同的特征类型以及相应的 值。

3.2 FSCD方法的分析

特征域会按照FSCD方法获得的 进行排序。表2给出了各种特征类型在排序中的最小值、中位数以及最大值,同时对传统的Dropout FR方法、DFS方法也做了比较。由于考虑了特征的复杂度,FSCD方法在简单特征的位序要比复杂特征明显更加靠前;另一方面,只要特征足够有效,复杂特征同样有机会排到相对靠前的位置。而对于传统的两种方法,特征位序与特征类型(特征复杂度)的相关性明显不足。

表2 不同特征类型的特征位序以及分布。不同方法的位序结果按照‘/’分隔,包括Drooout FR方法、DFS方法以及提出的FSCD方法。

为了分析特征域个数 对效率和效果的影响,我们用阿里搜索广告的20亿样本训练了具有不同 的粗排模型,在不同方法上分别选取前 在效果和效率上的指标详见表3。结果显示,相比于传统方法,提出的FSCD方法在相同 的情况下AUC略有下降。然而,在线的效率是有显著的提升的。综合考虑下,我们选取FSCD方法的前100个特征作为最终的粗排特征集合。

表3 不同特征选择方法选出的前 个特征域训练模型的各项指标结果(包括离线AUC、在线延时以及CPU利用率)。每个模型都基于阿里搜索广告20亿样本训练得来。

3.3 总体结果比较

表4和表5展示了提出方法的离线和在线实验结果,对比基线为基于向量点积模型。为了获得最优的在线效果,每个模型都用阿里搜索广告约2000亿条真实样本训练而来,因此离线AUC绝对值比表3中的离线AUC要大很多。表4的结果显示,我们提出的粗排模型比基于向量点积的粗排模型有显著更好的效果。对于在线效果,表5展示了阿里搜索广告真实流量下连续30天的实验效果。结果显示,提出的方法达到了效率和效果的更好的均衡,使得CTR和RPM的效果都获得了显著的提升。由于采用了IF结构,提出的方法优于传统的基于向量点积模型。

在系统的效率方面,虽然我们采用了复杂的IF结构的粗排模型,但是提出的FSCD方法优化了计算复杂度,从而使得系统的整体复杂度得到控制。因此,在线的CPU使用率与采用基于向量点积模型的CPU利用率基本持平,系统总延时有微弱上升。表5展现了峰值QPS上的相关实验结果。

方法召回率离线AUC
基于向量点积模型88%0.695
提出的模型95%0.737

表4 不同方法的离线结果。每个模型都基于阿里搜索广告约2000亿样本训练得来。

表5 阿里搜索广告真实流量上采用不同方法的在线效率和效果

▐ 4. 结论

为了解决搜索推荐系统中,RF结构粗排模型效果不足的问题,阿里搜索广告rank算法团队提出了基于效率和效果特征选择的IF结构粗排模型。提出的粗排模型从精排结果继承而来,通过FSCD方法获取了既有效果又有效率的特征子集。离线实验证明了FSCD方法的有效性,而阿里搜索广告真实流量下的离线和在线实验证明了本方法对系统的正向作用。提出的方法已经在阿里搜索广告中全量上线并稳定运行,为整个集团增加了显著的收入。

一起交流

想和你一起学习进步!『NewBeeNLP』目前已经建立了多个不同方向交流群(机器学习 / 深度学习 / 自然语言处理 / 搜索推荐 / 图网络 / 面试交流 / 等),名额有限,赶紧添加下方微信加入一起讨论交流吧!(注意一定要备注信息才能通过)

参考文献

[1] Chun-Hao Chang, Ladislav Rampasek, and Anna Goldenberg. Dropout feature ranking for deep learning models. arXiv preprint arXiv:1712.08645, 2017.

[2] Luke Gallagher, Ruey-Cheng Chen, Roi Blanco, and J Shane Culpepper. Joint optimization of cascade ranking models. In Proceedings of the Twelfth ACM International Conference on Web Search and Data Mining, pages 15–23, 2019.

[3] JiafengGuo,YixingFan,LiangPang,LiuYang,QingyaoAi,HamedZamani,Chen Wu, W Bruce Croft, and Xueqi Cheng. A deep look into neural ranking models for information retrieval. Information Processing & Management, 57(6):102067, 2020.

[4] Po-SenHuang,XiaodongHe,JianfengGao,LiDeng,AlexAcero,andLarryHeck. Learning deep structured semantic models for web search using clickthrough data. In Proceedings of the 22nd ACM international conference on Information & Knowledge Management, pages 2333–2338, 2013.

[5] Eric Jang, Shixiang Gu, and Ben Poole. Categorical reparameterization with gumbel-softmax. arXiv preprint arXiv:1611.01144, 2016.

[6] Yifeng Li, Chih-Yu Chen, and Wyeth W Wasserman. Deep feature selection: theory and application to identify enhancers and promoters. Journal of Compu- tational Biology, 23(5):322–336, 2016.

[7] Shichen Liu, Fei Xiao, Wenwu Ou, and Luo Si. Cascade ranking for operational e-commerce search. In Proceedings of the 23rd ACM SIGKDD International Con- ference on Knowledge Discovery and Data Mining, pages 1557–1565, 2017.

[8] Xun Liu, Wei Xue, Lei Xiao, and Bo Zhang. Pbodl: Parallel bayesian online deep learning for click-through rate prediction in tencent advertising system. arXiv preprint arXiv:1707.00802, 2017.

[9] Vikas C Raykar, Balaji Krishnapuram, and Shipeng Yu. Designing efficient cascaded classifiers: tradeoff between accuracy and cost. In Proceedings of the 16th ACM SIGKDD international conference on Knowledge discovery and data mining, pages 853–860, 2010.

[10] SteffenRendle,ChristophFreudenthaler,ZenoGantner,andLarsSchmidt-Thieme. Bpr: Bayesian personalized ranking from implicit feedback. arXiv preprint arXiv:1205.2618, 2012.

[11] JizheWang,PipeiHuang,HuanZhao,ZhiboZhang,BinqiangZhao,andDikLun Lee. Billion-scale commodity embedding for e-commerce recommendation in alibaba. In Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, pages 839–848. ACM, 2018.

[12] Zhe Wang, Liqin Zhao, Biye Jiang, Guorui Zhou, Xiaoqiang Zhu, and Kun Gai. Cold: Towards the next generation of pre-ranking system. arXiv preprint arXiv:2007.16122, 2020.

[13] WenjinWu,GuojunLiu,HuiYe,ChenshuangZhang,TianshuWu,DaoruiXiao, Wei Lin, and Xiaoyu Zhu. Eenmf: An end-to-end neural matching framework for e-commerce sponsored search. arXiv preprint arXiv:1812.01190, 2018.

END -



NLP,吹爆与落地

2021-06-13

NewBeeNLP 年中 | From NewBee To NB

2021-06-14

复旦邱锡鹏组最新综述:A Survey of Transformers!

2021-06-10

200+篇Graph4NLP文献集:图深度学习在NLP任务的应用

2021-06-11

疯狂暗示↓↓↓↓↓↓↓

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值