搜索推荐炼丹笔记:Transformer在搜索推荐中的应用

本文探讨了Transformer模型在搜索推荐领域的应用,包括CTR预估的挑战、特征工程、行为序列建模和重排序。核心创新点是Interacting Layer,借鉴了Multi-head Self-Attention方法,通过Position embedding捕捉行为序列中的关系。文中还提到了在2020年腾讯广告算法大赛中,Transformer模型的出色表现,并讨论了对Masked Language Modeling的改进策略。
摘要由CSDN通过智能技术生成

v2-071e132c7353c2be34deb925be1bf617_b.jpg
作者:九羽,公众号:炼丹笔记

BERT等Transformer模型在自然语言处理领域大放异彩之后,将Transformer应用在各个领域变成了一种潮流,包括之前文章中介绍的Image Transformer和本文要介绍的,在搜索推荐领域排序算法阶段,利用高阶特征组合的AutoInt、对用户行为序列建模的BST、Transformer在工业界中的应用和Transformer在数据算法竞赛(2020年腾讯广告算法大赛)中惊人表现等。

v2-05326a69f2fbecce2e8e2ebbaf617c20_b.jpg

v2-f9af276732d43f04a3110b869706d518_b.jpg

CTR预估领域面临着诸多挑战,输入特征的稀疏高维问题,高阶特征的计算复杂度问题等本文将数值特征和类别特征映射到同一个低维空间,利用带残差连接的多头注意力机制显式的进行交叉特征获取,提出了一种能够自学习特征高阶交叉的方法。

v2-320a11182cdff7e03027f1ad5a4222b6_b.jpg

v2-4269552d1fe8725c96a318c053c3dde5_b.jpg

Interacting Layer是本篇论文中最核心的创新点,借鉴了NLP问题中

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值